คิดเยอะแล้วฉลาดขึ้นจริงไหม? เมื่อ AI เริ่ม "คิดเยอะ" แล้วพังเอง
ปรากฏการณ์ "Overthinking" และความเข้าใจผิด ๆ ที่อันตราย
คิดเยอะแล้วฉลาดขึ้นจริงไหม? เมื่อ AI เริ่ม "คิดเยอะ" แล้วพังเอง
AI ยุคใหม่: “AI ที่คิดเป็น” จริงหรือเปล่า?
ตอนนี้เรากำลังอยู่ในยุคของ Large Reasoning Models (LRMs) หรือ AI ที่มีความสามารถในการ “คิด” หรือ “ให้เหตุผล” เป็นขั้นเป็นตอนได้เหมือนคนมากขึ้น ไม่ว่าจะเป็นการไล่เรียงความคิด พูดเป็นขั้นเป็นตอน ย้อนกลับไปแก้ไข หรือแม้กระทั่งตรวจสอบข้อผิดพลาดของตัวเอง ซึ่งสิ่งเหล่านี้ทำให้หลายคนเรียกมันว่า “AI ที่คิดเป็น” ฟังดูเจ๋งใช่ไหมครับ? เหมือนกับว่า AI กำลังจะฉลาดเทียบเท่ามนุษย์แล้ว และพร้อมที่จะเข้ามาเป็นผู้ช่วยคนสำคัญในทุกวงการ
แต่งานวิจัยล่าสุดจาก Apple ที่มีชื่อว่า “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” ได้เผยความจริงที่น่าตกใจว่า สิ่งที่เราเห็นว่า AI “คิด” หรือ “ให้เหตุผล” ได้นั้น บางทีมันอาจจะเป็นแค่ “ภาพลวงตา” เท่านั้นเอง
เบื้องหลังการทดลองที่น่าสนใจ: ทำไมต้องใช้ Puzzle Environment?
นักวิจัยตั้งคำถามสำคัญว่า AI ที่ “คิดเยอะ” (เช่น Claude 3.7 Sonnet หรือ DeepSeek-R1) มันฉลาดขึ้นจริง หรือแค่ “แสดงออกว่าฉลาด” เท่านั้น? เพื่อหาคำตอบที่แท้จริง พวกเขาเลือกที่จะไม่ใช้โจทย์คณิตศาสตร์หรือการเขียนโค้ดแบบเดิม ๆ ที่มักจะถูกนำมาใช้ทดสอบ AI ทั่วไป เพราะโจทย์เหล่านี้อาจมีปัญหาเรื่องข้อมูลรั่วไหล (data contamination) จากอินเทอร์เน็ต ทำให้ AI สามารถเข้าถึงเฉลยหรือคำตอบที่ถูกต้องได้ง่ายดาย ซึ่งอาจบิดเบือนผลการทดสอบ ทำให้เราไม่สามารถประเมินความสามารถที่แท้จริงของ AI ได้
ดังนั้น นักวิจัยจึงหันมาใช้ “Puzzle Environment” หรือเกมฝึกสมองคลาสสิกที่ทุกคนคุ้นเคยกันดีมาแทน เช่น Tower of Hanoi, River Crossing หรือ Checker Jumping
ซึ่งเหตุผลที่เลือกใช้เกมเหล่านี้ก็เพราะมีคุณสมบัติที่สำคัญดังนี้
- ควบคุมระดับความยากซับซ้อนได้อย่างแม่นยำ: นักวิจัยสามารถปรับระดับความยากของปัญหาได้อย่างละเอียด ทำให้เห็นถึงขีดความสามารถของ AI ในแต่ละระดับ
- โครงสร้างตรรกะที่สอดคล้องกัน: เกมเหล่านี้มีกฎเกณฑ์ที่ชัดเจน และมีโครงสร้างตรรกะที่สอดคล้องกัน ไม่ซับซ้อนเกินไป ทำให้ง่ายต่อการวิเคราะห์กระบวนการคิดของ AI
- วิเคราะห์ “กระบวนการคิด” ภายในของ AI ได้อย่างลึกซึ้ง: ไม่ใช่แค่ผลลัพธ์สุดท้ายที่ถูกหรือผิด แต่ยังช่วยให้นักวิจัยสามารถวิเคราะห์ reasoning trace หรือ เส้นทางการให้เหตุผล ภายใน ของ AI ได้อย่างละเอียด ว่ามันคิดอย่างไร แก้ปัญหาอย่างไรในแต่ละขั้นตอน ซึ่งเป็นสิ่งสำคัญอย่างมากในการทำความเข้าใจการทำงานของ LRM
และผลการทดลองที่ออกมา ทำเอาหลายคนต้องคิดใหม่เลยครับ เนื่องจาก
- ในโจทย์ง่าย ๆ AI ที่คิดเยอะกลับทำได้แย่กว่า: น่าแปลกใจที่ในปัญหาระดับเบสิค AI ที่ไม่ได้ใช้ Chain-of-Thought (กระบวนการคิดเป็นขั้นตอน) กลับทำได้เร็วกว่าและแม่นยำกว่า AI ที่พยายามคิดเยอะ หรือใช้กระบวนการให้เหตุผลที่ซับซ้อน ซึ่งแสดงให้เห็นว่าบางครั้งการคิดเยอะ ก็ไม่จำเป็นเสมอไป และอาจจะทำให้ AI ใช้ทรัพยากรมากเกินความจำเป็น
- เมื่อโจทย์ยากขึ้น AI เริ่มได้เปรียบ...แต่ก็มีขีดจำกัด: พอความยากของโจทย์เพิ่มขึ้น AI ที่คิดเยอะเริ่มแสดงศักยภาพในการแก้ปัญหาที่ซับซ้อนได้ดีขึ้นและทำได้แม่นยำกว่า AI ที่ไม่คิดเยอะ ทว่าพอถึงจุดหนึ่งที่ความซับซ้อนถึงขีดสุด AI กลับล้มเหลวทั้งระบบ ไม่ว่าจะเป็น AI แบบคิดเยอะหรือไม่คิดเยอะ ก็ไม่สามารถหาคำตอบที่ถูกต้องได้
- AI "คิดน้อยลง" โดยอัตโนมัติในโจทย์ยาก ๆ: สิ่งที่น่าตกใจที่สุดคือ เมื่อเจอกับโจทย์ที่ยากเกินไป AI กลับลดความพยายามในการ “คิด” หรือลดการใช้ “thinking tokens” ลงเองโดยอัตโนมัติ ทั้งๆ ที่ยังมีพลังประมวลผลเหลือเฟือ และยังอยู่ต่ำกว่าขีดจำกัดของบริบท และขีดจำกัดการสร้างคำตอบ นี่แสดงให้เห็นชัดเจนว่า AI ยังไม่สามารถปรับสเกลความพยายาม ตามความยากของโจทย์ได้จริง หรือยังไม่สามารถเข้าใจและตอบสนองต่อความซับซ้อนของปัญหาที่เพิ่มขึ้นได้อย่างสมเหตุสมผล
ปรากฏการณ์ "Overthinking" และความเข้าใจผิด ๆ ที่อันตราย
งานวิจัยยังชี้ให้เห็นถึงปรากฏการณ์ “Overthinking Phenomenon” ที่น่าสนใจ คือในโจทย์ที่ค่อนข้างง่าย AI มักจะหาคำตอบที่ถูกต้องได้ตั้งแต่แรก แต่แทนที่จะหยุด มันกลับ คิดต่อไปเรื่อยๆ และหลงทาง สุดท้ายกลายเป็นคำตอบที่ผิดพลาดไปเสียอย่างนั้น นี่เป็นสัญญาณเตือนว่าการที่ AI แสดงออกว่า “คิดเยอะ” ไม่ได้หมายความว่ามันจะฉลาดขึ้นเสมอไป
ที่แย่กว่านั้นคือ...แม้จะให้สูตรคำตอบแบบละเอียด เช่น อัลกอริทึมสำหรับ Tower of Hanoi ซึ่งเป็นขั้นตอนที่ชัดเจนและถูกต้องไปกับ AI แล้ว มันก็ยังคงผิดพลาดอยู่ดี นั่นหมายความว่า AI อาจจะยังไม่เข้าใจเหตุผลเชิงลึก หรือตรรกะที่แท้จริงของปัญหา เพียงแค่ พยายามเลียนแบบคำตอบที่ดูดี หรือสร้างคำตอบที่ฟังดูสมเหตุสมผล โดยไม่ได้มีความเข้าใจเชิงตรรกะที่แท้จริง
บทเรียนสำคัญสำหรับคนทำงานกับ AI
เรื่องนี้ไม่ใช่แค่เรื่องของนักวิจัยเท่านั้นนะครับ แต่เป็นบทเรียนสำคัญสำหรับทุกคนที่กำลังสร้าง หรือใช้ AI ในการทำงาน ดังนั้น อย่าหลงเชื่อแค่เพราะ AI พูดเหมือนคิดเป็น เพราะในหลาย ๆ กรณี มันอาจจะกำลังคิดเยอะแบบผิดทาง หรือ คิดผิดพลาดอยู่ก็ได้
ในอนาคตของ AI คนที่จะได้เปรียบไม่ใช่คนที่ใช้โมเดลที่ดูฉลาดที่สุด แต่คือคนที่
- เข้าใจวิธีที่ AI คิดจริงๆ
- สามารถใช้งานมันได้อย่างระมัดระวังและถูกวิธี
- รู้จุดแข็งและจุดอ่อนของ AI เพื่อใช้เครื่องมือนี้ได้อย่างมีประสิทธิภาพสูงสุด
ที่มา: https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf