Back to News
AI News

Guardian Agent นวัตกรรมสุดล้ำ ลดปัญหา AI Hallucinations

Vectara แนะนำ Guardian Agents เทคโนโลยีลด Hallucinations ใน AI ให้น้อยกว่า 1% พร้อมเครื่องมือ HCMBench สำหรับวัดประสิทธิภาพ

Tiger's avatar
Tiger
Admin
2 min
May 14, 2025
AI Vectara Hallucination Guardian Agents

เตรียมตัวพบกับนวัตกรรมที่จะปฏิวัติการใช้งาน AI ในองค์กรและธุรกิจต่าง ๆ เพราะ Vectara ได้เปิดตัวเทคโนโลยีใหม่ล่าสุดที่เรียกว่า "Guardian Agents" ซึ่งจะมาช่วยแก้ปัญหาใหญ่ที่คอยหลอกหลอนนักพัฒนา AI มานาน นั่นก็คือปัญหา "AI Hallucinations" นั่นเอง


AI Hallucinations คืออะไร? ทำไมถึงเป็นปัญหา?

ก่อนอื่น เรามาทำความเข้าใจก่อนว่า "AI Hallucinations" คืออะไร ปัญหา Hallucinations ใน AI ก็คือการที่ AI สร้างข้อมูลที่ผิดพลาด ไม่ถูกต้อง หรือไม่มีอยู่จริงขึ้นมา ลองนึกภาพว่าเราถาม AI ให้สรุปข้อมูลจากเอกสาร แต่ AI ดันแต่งเรื่องเติมคำไปเอง แบบนี้ก็คือ Hallucination นั่นเองครับ
ปัญหานี้ถือเป็นอุปสรรคสำคัญในการนำ AI ไปใช้งานจริง โดยเฉพาะในงานที่ต้องการความแม่นยำและความน่าเชื่อถือสูง เช่น การวิเคราะห์ข้อมูลทางการเงิน การแพทย์ หรือกฎหมาย เพราะถ้า AI ให้ข้อมูลผิด ๆ มา อาจนำไปสู่ความเสียหายที่ร้ายแรงได้เลย


Vectara กับการแก้ปัญหา Hallucinations

Vectara เป็นบริษัทที่คร่ำหวอดในการพัฒนาเทคโนโลยีเพื่อลดความเสี่ยงจาก Hallucinations ใน AI พวกเขาเป็นผู้บุกเบิกเทคโนโลยีที่เรียกว่า "Grounded Retrieval" หรือที่ปัจจุบันรู้จักกันในชื่อ "Retrieval Augmented Generation" (RAG) ซึ่งเป็นเทคนิคที่ช่วยให้ AI สามารถดึงข้อมูลจากแหล่งข้อมูลที่กำหนดได้ ทำให้ลดโอกาสในการสร้างข้อมูลมั่ว ๆ ขึ้นมาเอง

อย่างไรก็ตาม แม้จะมี RAG เข้ามาช่วยแล้ว ปัญหา Hallucinations ก็ยังไม่หมดไป นักพัฒนา AI ส่วนใหญ่จึงมุ่งเน้นไปที่การสร้างระบบที่คอย "ตรวจจับ" Hallucinations หรือสร้าง "Guardrails" เพื่อป้องกันไม่ให้ AI ปล่อยข้อมูลที่เป็นอันตรายออกมา


Guardian Agents: แนวทางใหม่ที่ล้ำกว่าเดิม

แต่ Vectara ได้คิดค้นแนวทางที่ "ล้ำ" ไปอีกขั้น โดยแทนที่จะเป็นแค่ระบบตรวจจับ Vectara ได้พัฒนา "Guardian Agents" ซึ่งเป็นเหมือนบอดี้การ์ดอัจฉริยะที่คอย "แก้ไข" ปัญหา Hallucinations ให้กับ AI แบบอัตโนมัติ

Guardian Agents ไม่ได้ทำงานโดยการใส่กฎเกณฑ์เข้าไปใน Large Language Model (LLM) โดยตรง แต่เป็นซอฟต์แวร์ที่คอย "เฝ้าระวัง" และ "แก้ไข" ข้อผิดพลาดใน Workflow การทำงานของ AI ทำให้สามารถปรับแก้ข้อมูลที่ผิดพลาดได้อย่างแม่นยำ โดยไม่กระทบกับเนื้อหาโดยรวม

และผลลัพธ์ที่ได้ก็คือ ระบบนี้สามารถลดอัตราการเกิด Hallucinations ในโมเดลภาษาขนาดเล็ก (ไม่เกิน 7 พันล้านพารามิเตอร์) ได้ต่ำกว่า 1% เลยทีเดียว ซึ่งถือว่าเป็นความสำเร็จที่น่าทึ่งมาก และจะช่วยเปิดโอกาสใหม่ ๆ ในการนำ AI ไปใช้ในงานที่ต้องการความน่าเชื่อถือสูง


HCMBench: เครื่องมือวัดประสิทธิภาพสำหรับทุกคน

นอกจาก Guardian Agents แล้ว Vectara ยังได้เปิดตัว "HCMBench" ซึ่งเป็นชุดเครื่องมือโอเพนซอร์สสำหรับใช้ประเมินประสิทธิภาพของโมเดลแก้ไข Hallucinations เครื่องมือนี้จะช่วยสร้างมาตรฐานในการวัดผล และทำให้ทุกคนสามารถเปรียบเทียบประสิทธิภาพของโมเดลต่าง ๆ ได้อย่างเป็นธรรม


ทำไม Guardian Agents ถึงสำคัญต่อองค์กร?

สำหรับองค์กรที่กำลังพิจารณาใช้ AI ในการดำเนินธุรกิจ Guardian Agents ถือเป็นทางเลือกที่น่าสนใจมาก เพราะช่วยให้องค์กรสามารถนำ AI ไปใช้ใน Use Cases ที่มีความเสี่ยงสูงได้ โดยไม่ต้องกังวลเรื่องความถูกต้องของข้อมูล นอกจากนี้ Guardian Agents ยังสอดคล้องกับแนวโน้มการทำงานของ AI ที่มีความซับซ้อนและเป็น Workflow แบบหลายขั้นตอนมากขึ้น ทำให้องค์กรสามารถสร้างระบบ AI ที่มีประสิทธิภาพและน่าเชื่อถือได้


จากที่เราได้ติดตามและทดลองใช้เทคนิคหลายอย่างในการจัดการ Hallucinations มาก่อน ข่าวการเปิดตัว Guardian Agents ของ Vectara ครั้งนี้นับว่าน่าสนใจไม่น้อยเลยครับ โดยเฉพาะในแง่ของการลด Hallucinations ได้ต่ำกว่า 1% ซึ่งอาจเปลี่ยนเกมการพัฒนาแอปพลิเคชัน AI ในระดับองค์กรเลยก็ว่าได้
ในฐานะคนที่ใช้งาน AI อยู่ทุกวัน บอกได้ว่าข่าวนี้ทำให้รู้สึกใจชื้นมากครับ

ที่มา: https://venturebeat.com/ai/beyond-detection-why-automatically-correcting-hallucinations-could-transform-enterprise-ai-adoption/