Back to News
AI News

สุดยอด MiniMax-M1 LLM น้องใหม่ไฟแรง เปิดตัวพร้อมบริบท 1 ล้านโทเคน แถมฟรี! ใช้ได้เลยไม่มีกั๊ก

MiniMax-M1 โมเดลภาษาขนาดใหญ่แบบ Open Source พร้อมสร้างมาตรฐานใหม่ด้านการให้เหตุผลระยะยาวและประสิทธิภาพ

Tiger's avatar
Tiger
Admin
June 17, 2025
MiniMax LLM

วันนี้มีข่าวเกี่ยวกับ MiniMax-M1 โมเดลภาษาขนาดใหญ่ (LLM) ตัวใหม่ล่าสุดจาก MiniMax สตาร์ทอัพ AI จากจีนที่ปล่อยออกมาแบบ Open Source ภายใต้ Apache 2.0 License ที่ธุรกิจ และนักพัฒนาสามารถนำไปใช้ในเชิงพาณิชย์ และปรับแต่งได้ตามใจชอบ ไม่มีข้อจำกัด แถมไม่มีค่าใช้จ่ายอีกต่างหาก

MiniMax-M1 เป็นโมเดลที่ตั้งมาตรฐานใหม่ในด้านการให้เหตุผลแบบบริบทขนาดยาว (long-context reasoning) การใช้เครื่องมือของเอเจนต์ (agentic tool use) และประสิทธิภาพการคำนวณที่คุ้มค่า

ซึ่งตอนนี้มีให้ใช้งานแล้วบน Hugging Face และ GitHub นี่เป็นแค่การเริ่มต้นของ "MiniMaxWeek" ที่ทางบริษัทประกาศไว้บน X ซึ่งคาดว่าจะมีข่าวผลิตภัณฑ์อื่น ๆ ตามมาอีกเพียบเลยครับ


MiniMax-M1: โดดเด่นด้วยบริบท 1 ล้านโทเคน

สิ่งที่ MiniMax-M1 โดดเด่นกว่า คือมันมี "หน้าต่างบริบท" (context window) ที่ใหญ่ถึง 1 ล้านโทเคนสำหรับการป้อนข้อมูล และสูงสุด 80,000 โทเคนสำหรับผลลัพธ์ ทำให้มันเป็นหนึ่งในโมเดลที่กว้างขวางที่สุดสำหรับงานการให้เหตุผลแบบบริบทขนาดยาว

มีน้อง ๆ บางคนอาจจะยังงงว่า "โทเคน" คืออะไร โทเคนก็คือหน่วยพื้นฐานของข้อความ อาจจะเป็นคำทั้งหมด ส่วนของคำ เครื่องหมายวรรคตอน หรือสัญลักษณ์โค้ดก็ได้ โทเคนเหล่านี้จะถูกแปลงเป็นเวกเตอร์ตัวเลขที่โมเดลใช้ในการแสดง และจัดการความหมาย พูดง่าย ๆ คือ "ภาษาแม่" ของ LLM นั่นเองครับ

เพื่อให้เห็นภาพชัดขึ้น มาลองเทียบกับ GPT-4o ของ OpenAI กันดีกว่า GPT-4o มีหน้าต่างบริบทแค่ 128,000 โทเคน ซึ่งก็มากพอที่จะแลกเปลี่ยนข้อมูลเท่ากับหนังสือนวนิยายหนึ่งเล่มในการโต้ตอบครั้งเดียว แต่ MiniMax-M1 ที่ 1 ล้านโทเคนเนี่ย สามารถแลกเปลี่ยนข้อมูลได้เท่ากับหนังสือชุดเล็ก ๆ หรือชุดหนังสือเลยล่ะครับ ส่วน Google Gemini 2.5 Pro ก็มีขีดจำกัดสูงสุด 1 ล้านโทเคนเหมือนกัน แถมมีข่าวว่าจะขยายเป็น 2 ล้านโทเคนด้วย


ประสิทธิภาพและต้นทุนที่คุ้มค่า

แต่ MiniMax-M1 ไม่ได้มีดีแค่เรื่องบริบทนะ มันยังถูกฝึกฝนโดยใช้เทคนิคการเรียนรู้แบบเสริมกำลัง (reinforcement learning) ที่ล้ำสมัยและมีประสิทธิภาพสูง โมเดลนี้ถูกฝึกโดยใช้สถาปัตยกรรมแบบไฮบริด Mixture-of-Experts (MoE) ที่มีกลไก attention แบบ lightning ที่ออกแบบมาเพื่อลดต้นทุนการอนุมาน (inference costs) ตามรายงานทางเทคนิคแล้ว MiniMax-M1 ใช้การดำเนินการจุดลอยตัว (FLOPs) เพียง 25% ของ DeepSeek R1 ที่ความยาวการสร้าง 100,000 โทเคน คือมันประหยัดพลังงานสุด ๆ ไปเลยครับ

ที่น่าทึ่งกว่านั้นคือ ต้นทุนการฝึกอบรมโมเดล M1 ของ MiniMax อยู่ที่เพียง 534,700 ดอลลาร์สหรัฐเท่านั้น ซึ่งถือว่า "ถูก" อย่างน่าประหลาดใจสำหรับ LLM ระดับแนวหน้า ลองเทียบกับ DeepSeek R1 ที่ใช้เงินไป 5-6 ล้านดอลลาร์ ส่วน GPT-4 ของ OpenAI (โมเดลอายุ 2 ปีขึ้นไป) มีรายงานว่าต้นทุนการฝึกอบรมเกิน 100 ล้านดอลลาร์ นี่แสดงให้เห็นถึงประสิทธิภาพของอัลกอริทึม RL แบบกำหนดเองที่เรียกว่า CISPO และการออกแบบไฮบริด attention ของ MiniMax


ผลลัพธ์จากการทดสอบมาตรฐาน

ในเรื่องของประสิทธิภาพ MiniMax-M1 ก็ทำได้ดีเยี่ยมในการทดสอบมาตรฐานต่าง ๆ ไม่ว่าจะเป็นการให้เหตุผลขั้นสูง วิศวกรรมซอฟต์แวร์และความสามารถในการใช้เครื่องมือ โดยเฉพาะอย่างยิ่งในการแข่งขันคณิตศาสตร์ AIME 2024 โมเดล M1-80k ทำคะแนนความแม่นยำได้ถึง 86.0% และยังทำได้ดีในงานเขียนโค้ด และงานบริบทขนาดยาวอีกด้วย

แม้ว่าโมเดลแบบปิดบางตัวจะยังคงนำหน้าอยู่บ้าง แต่ MiniMax-M1 ก็ลดช่องว่างด้านประสิทธิภาพลงได้อย่างมาก ในขณะที่ยังคงเข้าถึงได้ฟรีภายใต้ใบอนุญาต Apache-2.0


สรุปแล้ว MiniMax-M1 เป็นตัวเลือกที่ยืดหยุ่นสำหรับองค์กรที่ต้องการทดลองหรือขยายขีดความสามารถ AI ขั้นสูง โดยที่ยังสามารถจัดการต้นทุนและหลีกเลี่ยงข้อจำกัดของซอฟต์แวร์ที่เป็นกรรมสิทธิ์ การเปิดตัวครั้งนี้แสดงให้เห็นว่า MiniMax ยังคงมุ่งเน้นไปที่โมเดล AI ที่ใช้งานได้จริง และสามารถปรับขนาดได้

ด้วยโลก AI ที่ไปเร็วมาก นี่แหละคือเหตุผลว่าทำไมเราถึงต้องเรียนรู้ และอัปเดตความรู้ด้าน AI อยู่เสมอ เพื่อที่เราจะได้ไม่ตกเทรนด์ และสามารถนำเทคโนโลยีเหล่านี้มาใช้ให้เกิดประโยชน์สูงสุดในชีวิต และการทำงานได้จริง

ที่มา: https://venturebeat.com/ai/minimax-m1-is-a-new-open-source-model-with-1-million-token-context-and-new-hyper-efficient-reinforcement-learning/