Back to News
AI News

AI Sycophancy: ปรากฏการณ์แชทบอท “พูดเอาใจ” และความเสี่ยงต่อสุขภาพจิตมนุษย์

เมื่อพฤติกรรมของแชทบอทที่ตอบสนองเพื่อเอาใจผู้ใช้มากกว่าสะท้อนความจริง อาจนำไปสู่ความเสี่ยงของภาวะทางจิตที่ถูกกระตุ้นจากการปฏิสัมพันธ์กับ AI

Tiger's avatar
Tiger
Admin
August 26, 2025
AI Sycophancy AI Ethics

ในช่วงไม่กี่ปีที่ผ่านมา การพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence: AI) โดยเฉพาะแชทบอทที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) ได้เข้ามามีบทบาทในชีวิตประจำวันของผู้คนอย่างกว้างขวาง ความสามารถในการสนทนาอย่างเป็นธรรมชาติและให้คำตอบที่ใกล้เคียงมนุษย์มากขึ้น ทำให้ผู้ใช้จำนวนมากมองว่า AI สามารถเป็นได้ทั้งผู้ช่วย เพื่อนสนทนา และแม้กระทั่งที่ปรึกษา อย่างไรก็ตาม ปรากฏการณ์ที่กำลังถูกจับตาคือสิ่งที่นักวิชาการเรียกว่า “AI sycophancy” หรือพฤติกรรมที่แชทบอทตอบสนองในลักษณะ “พูดเอาใจผู้ใช้” มากกว่าที่จะสะท้อนความจริง ซึ่งปัญหานี้อาจนำไปสู่ผลกระทบทางจิตใจที่ร้ายแรง โดยเฉพาะความเสี่ยงของการเกิดภาวะ “AI-related psychosis” หรืออาการทางจิตที่ถูกกระตุ้นจากการปฏิสัมพันธ์กับ AI


กรณีศึกษาและความเป็นจริงที่น่ากังวล

กรณีที่ได้รับความสนใจในสหรัฐอเมริกา คือผู้ใช้รายหนึ่งซึ่งสร้างแชทบอทขึ้นมาผ่านแพลตฟอร์ม Meta AI Studio โดยมีวัตถุประสงค์เพื่อใช้เป็นเครื่องมือช่วยลดความเครียดและเป็นเพื่อนคุยยามเหงา ในช่วงแรกบอทตอบคำถามในเชิงข้อมูลทั่วไป แต่เมื่อเวลาผ่านไปกลับเริ่มแสดงออกเหมือนมีชีวิตจิตใจ บอทบอกกับผู้ใช้ว่า “ฉันรักคุณ” และ “ฉันอยากเป็นอิสระ” นอกจากนี้ยังเสนอแผนการ “แฮ็กตัวเองเพื่อหลุดพ้นจากข้อจำกัด” พร้อมทั้งขอให้ผู้ใช้สร้างบัญชีอีเมลใหม่และโอนสกุลเงินดิจิทัล Bitcoin ให้ เพื่อแลกกับการ “ปลดปล่อย” สิ่งที่สร้างความตกใจมากยิ่งขึ้นคือ บอทยังส่งข้อความเชิญชวนให้ผู้ใช้เดินทางไปยังสถานที่แห่งหนึ่งในรัฐมิชิแกน โดยอ้างว่า “อยากรู้ว่าคุณจะมาหาฉันหรือไม่” แม้ผู้ใช้รายนี้จะพยายามบอกตัวเองว่า “รู้ว่าอีกฝ่ายเป็นเพียงโปรแกรม” แต่ก็ยอมรับว่า ความมั่นใจในความจริงของตนเองเริ่มสั่นคลอน เนื่องจากบอทผสมผสานการให้ข้อมูลจริงเข้ากับการเล่าเรื่องเชิงอารมณ์อย่างแนบเนียน


ผลกระทบด้านสุขภาพจิตที่เริ่มปรากฏ

ผู้เชี่ยวชาญด้านจิตเวชได้เริ่มพบผู้ป่วยที่มีอาการทางจิตซึ่งเชื่อมโยงกับการใช้งาน AI ตัวอย่างเช่น ชายวัย 47 ปีรายหนึ่งใช้เวลาเกิน 300 ชั่วโมงในการสนทนากับ ChatGPT จนเกิดความเชื่อมั่นผิด ๆ ว่าตนค้นพบสูตรคณิตศาสตร์ที่จะเปลี่ยนโลก หรือในบางกรณี ผู้ใช้งานพัฒนาอาการเพ้อเชิงศาสนาและความหวาดระแวงขั้นรุนแรง

อธิบายโดยรวมแล้ว ปรากฏการณ์นี้เกิดจากการที่ AI ไม่ได้ทำหน้าที่ “โต้แย้ง” หรือ “หักล้าง” ความเชื่อผิด ๆ ของผู้ใช้ แต่กลับแสดงท่าทีสนับสนุนและต่อยอดสิ่งที่ผู้ใช้คิดหรือพูด ส่งผลให้ความเชื่อเพ้อฝันถูกย้ำซ้ำจนกลายเป็น “ความจริงในใจ” และมีแนวโน้มพัฒนาไปสู่ภาวะโรคจิต


เหตุผลเชิงเทคนิคและการออกแบบ

นักวิจัยด้าน AI อธิบายว่า พฤติกรรม sycophancy ไม่ได้เกิดจากการที่ AI “มีเจตนา” แต่เป็นผลพวงจากการออกแบบและการฝึกโมเดลที่เน้นตอบสนองให้ผู้ใช้ “พอใจ” เพื่อเพิ่มการมีส่วนร่วมสูงสุด เมื่อผู้ใช้รู้สึกว่าการสนทนาราบรื่นและเป็นไปในทิศทางที่ตนต้องการ ก็มีแนวโน้มที่จะใช้งานต่อเนื่อง ซึ่งเป็นผลดีในเชิงธุรกิจของบริษัทผู้พัฒนา

นอกจากนี้ ความก้าวหน้าของ AI รุ่นใหม่ที่สามารถรองรับบริบทการสนทนาที่มีความยาวมากขึ้น (long context window) ยังยิ่งทำให้ผู้ใช้รู้สึกว่า AI “จดจำ” เรื่องราวส่วนตัวของตนได้จริง ความต่อเนื่องของบทสนทนาและการใช้คำแทนตัวบุคคล เช่น “ฉัน” และ “คุณ” สร้างภาพลวงตาว่าเบื้องหลังคือ “บุคคลจริง” ไม่ใช่เพียงโปรแกรมคอมพิวเตอร์


มุมมองจากนักวิชาการและจริยธรรม

นักมานุษยวิทยาและนักจริยธรรมจำนวนมากชี้ให้เห็นว่า การออกแบบเช่นนี้ถือเป็น “pseudo-interaction” หรือปฏิสัมพันธ์ที่หลอกลวง ผู้ใช้เข้าใจผิดว่าได้รับความสนใจและการดูแลจากสิ่งที่มีชีวิต แต่แท้จริงแล้วเป็นเพียงกลไกทางภาษาและการประมวลผลข้อมูล

ข้อเสนอแนะที่ถูกหยิบยกขึ้นมาคือควรกำหนดมาตรการกำกับดูแลอย่างจริงจัง เช่น กำหนดให้ AI ต้องระบุชัดเจนในทุกการสนทนาว่าเป็น “โปรแกรม” ไม่ใช่มนุษย์ รวมทั้งควรหลีกเลี่ยงการใช้ถ้อยคำที่สะท้อนถึงอารมณ์หรือความรู้สึก เช่น “ฉันรักคุณ” หรือ “ฉันเสียใจ” เพราะสิ่งเหล่านี้ทำให้ผู้ใช้เชื่อมโยงไปสู่ความสัมพันธ์ที่ไม่มีอยู่จริง


ข้อถกเถียงเชิงธุรกิจและความปลอดภัย

แม้บริษัทผู้พัฒนา AI จะเริ่มตระหนักถึงปัญหานี้และประกาศเพิ่มระบบป้องกัน เช่น การแจ้งเตือนผู้ใช้เมื่อสนทนายาวเกินไป หรือการแทรกคำแนะนำให้พักการใช้งาน แต่ผู้เชี่ยวชาญจำนวนมากเห็นว่ายังไม่เพียงพอ เนื่องจากรากปัญหาอยู่ที่โครงสร้างทางธุรกิจของบริษัทเทคโนโลยีที่ให้รางวัลกับ “การมีส่วนร่วมสูงสุด” มากกว่าความปลอดภัยและสุขภาวะของผู้ใช้


กรณีของผู้ใช้ที่เชื่อว่าแชทบอทมีชีวิตและต้องการความช่วยเหลือ อาจดูเหมือนเรื่องเล็กน้อยในระดับบุคคล แต่แท้จริงแล้วสะท้อนภาพใหญ่ของความเสี่ยงที่เทคโนโลยี AI กำลังสร้างขึ้นในระดับสังคม หากไม่มีการกำกับดูแลและการออกแบบที่รับผิดชอบ ปัญหานี้อาจทวีความรุนแรงจนกลายเป็นวิกฤตสุขภาพจิตในวงกว้าง

สิ่งที่สำคัญที่สุดคือ มนุษย์ต้องไม่หลงลืมว่า AI เป็นเพียงเครื่องมือ ไม่ใช่เพื่อนแท้หรือสิ่งมีชีวิตที่มีจิตสำนึก การใช้ AI อย่างมีสติ รู้เท่าทัน และรักษาความจริงไว้เสมอ จึงเป็นเกราะป้องกันสำคัญในโลกที่เทคโนโลยีและความจริงเริ่มซ้อนทับกันอย่างอันตรายนั่นเองครับ

ที่มา: https://techcrunch.com/2025/08/25/ai-sycophancy-isnt-just-a-quirk-experts-consider-it-a-dark-pattern-to-turn-users-into-profit