ถ้าพูดถึงชื่อ Nvidia ในชั่วโมงนี้ คงไม่มีใครกังขาในความเป็นเจ้าพ่อวงการ AI เพราะ GPU ตระกูล H100 หรือ Blackwell ของเขาคือขุมพลังหลักที่แทบทุกบริษัทต้องมีไว้ “เทรน” (Train) โมเดลใหญ่ๆ แต่พอเข้าสู่ปี 2025 ทิศทางลมมันเปลี่ยนครับ เพราะตอนนี้โลกไม่ได้แค่ต้องการสร้าง AI ตัวใหม่ แต่ต้องการ “ใช้งานจริง” ให้เร็วและถูกที่สุด สิ่งนี้เราเรียกว่า Inference (การรันโมเดลเพื่อให้คำตอบ)
และดีลล่าสุดที่สั่นสะเทือนวงการคือการที่ Nvidia ประกาศเซ็นสัญญา “ไลเซนส์เทคโนโลยี” จาก Groq แบบ non-exclusive แถมยังดึงตัวคีย์แมนระดับเทพอย่าง Jonathan Ross (ผู้ก่อตั้งและ CEO) และ Sunny Madra เข้าไปร่วมทัพ Nvidia แบบสายฟ้าแลบ!
สรุปให้ชัด: ดีลนี้คืออะไรกันแน่?
ก่อนหน้านี้มีข่าวลือหนาหูว่า Nvidia จะทุ่มเงินก้อนโตระดับ $20B เพื่อปิดดีลซื้อ Groq แต่สรุปออกมาคือ “ไม่ใช่การซื้อกิจการ” (Acquisition) ทั้งบริษัทแบบที่หลายคนเข้าใจครับ แต่เป็นการดีลที่ฉลาดกว่านั้น:
-
Nvidia ได้ของดี: ได้สิทธิ์ใช้เทคโนโลยีการประมวลผล Inference ที่ขึ้นชื่อว่า “เร็วที่สุดในโลก” ของ Groq ไปใส่ในโปรดักต์ตัวเอง
-
Nvidia ได้คนเก่ง: ดึงตัวหัวกะทิอย่าง Jonathan Ross ผู้อยู่เบื้องหลังการสร้างชิป TPU ของ Google มาช่วยคุมทัพ
-
Groq ยังอยู่: ตัวบริษัท Groq ยังดำเนินธุรกิจต่อไปเป็นอิสระ โดยแต่งตั้ง Simon Edwards ขึ้นมาเป็น CEO แทน เพื่อดูแลโปรดักต์อย่าง GroqCloud ต่อไป
ทำไมต้อง Groq? เจาะลึกไม้ตาย LPU (Language Processing Unit)
หลายคนอาจสงสัยว่า ในเมื่อ Nvidia มี GPU ที่แรงที่สุดอยู่แล้ว จะไปสนใจ Groq ทำไม? คำตอบอยู่ที่สถาปัตยกรรมครับ ชิปทั่วไปถูกออกแบบมาเพื่อคำนวณหลายอย่างพร้อมกัน (Parallel Processing) แต่ Groq คิดต่างด้วยการสร้าง LPU (Language Processing Unit) ซึ่งออกแบบมาเพื่อ “โมเดลภาษา (LLM)” โดยเฉพาะ
-
Latency ต่ำจนน่าตกใจ: ถ้าคุณเคยใช้ GroqCloud คุณจะเห็นว่า AI มันพิมพ์ตอบเราแทบจะทันที (Real-time) ไม่ต้องรอโหลดนานเหมือนชิปทั่วไป
-
Deterministic Hardware: Groq ตัดระบบซับซ้อนที่ทำให้ความเร็วไม่คงไม่ออก ทำให้การประมวลผลแม่นยำและควบคุมเวลาได้เป๊ะๆ
-
ประหยัดพลังงานกว่า: เมื่อทำงานเฉพาะทางได้ดีกว่า ก็ใช้ไฟน้อยกว่า ซึ่งเป็นหัวใจสำคัญของ Data Center ในยุคนี้
Inference คือสนามรบใหม่ที่มูลค่าสูงกว่า “การเทรน”
ช่วง 2 ปีที่ผ่านมา ทุกคนแข่งกันว่า “ใครจะสร้างโมเดลที่ฉลาดที่สุด” แต่หลังจากนี้คือ “ใครจะทำให้การรันโมเดลนั้นถูกที่สุด” ลองนึกภาพว่าถ้าคุณทำ ChatGPT แล้วต้องตอบคำถามวันละพันล้านครั้ง ถ้าต้นทุนต่อคำ (Cost per token) ของคุณแพงกว่าคู่แข่งแค่ 10% บริษัทคุณอาจขาดทุนมหาศาล Nvidia รู้ดีว่า GPU ของเขาแม้จะเทพแค่ไหน แต่ถ้าเจอชิปเฉพาะทาง (ASIC) สำหรับ Inference เข้ามาตีตลาด ก็อาจจะเสียแชมป์ได้ การดีลกับ Groq จึงเป็นการ “อุดรอยรั่ว” และ “ติดอาวุธ” ให้ตัวเองก้าวข้ามขีดจำกัดเดิมๆ ไปอีกขั้น
กลยุทธ์ “ทางลัด” ของ Nvidia
ทำไมไม่ซื้อทั้งบริษัทไปเลย? การเข้าซื้อบริษัทระดับ $20B ในช่วงที่หน่วยงานกำกับดูแล (Antitrust) กำลังจับตาดู Nvidia อย่างใกล้ชิดเป็นเรื่องเสี่ยงและเสียเวลามากครับ Nvidia เลยเลือกทางลัด: “ขอเทค ขอคน แต่ไม่เอาภาระ” การเอาทีมของ Jonathan Ross เข้าไป จะช่วยให้ Nvidia สามารถนำสถาปัตยกรรมที่ช่วยลดความหน่วง (Latency) ของ Groq มาผสมผสานกับ Ecosystem ของ Nvidia (เช่น CUDA) ได้ทันที นี่คือการผนึกกำลังที่น่ากลัวที่สุดในวงการเซมิคอนดักเตอร์เลยก็ว่าได้
ผลกระทบต่อชาว AI และนักพัฒนา
สำหรับเราๆ ที่เป็นผู้ใช้งานหรือนักพัฒนา สิ่งที่จะเกิดขึ้นตามมาคือ:
-
ค่าใช้จ่าย AI จะถูกลง: เมื่อประสิทธิภาพการ Inference สูงขึ้น ค่าบริการรายเดือนหรือค่า API ก็มีแนวโน้มจะลดลง
-
AI จะเก่งและเร็วขึ้น: เราจะเริ่มเห็นแอปพลิเคชันที่ต้องใช้ความเร็วสูงๆ เช่น การแปลภาษาแบบเรียลไทม์ หรือการโต้ตอบด้วยเสียงที่ไม่สะดุด
-
ชิปเฉพาะทางจะบูม: หมดยุค “ชิปเดียวทำทุกอย่าง” ต่อไปเราจะเห็นชิปที่แยกสายชัดเจนระหว่างตัวที่ใช้ฝึก (Train) กับตัวที่ใช้งาน (Run)
สรุปสั้นๆ: ดีลนี้คือการประกาศกร้าวของ Nvidia ว่า “ในสมรภูมิ Inference… พี่ก็จะไม่ยอมใครเหมือนกัน”
FAQ: 3 เรื่องต้องรู้เกี่ยวกับดีล Nvidia x Groq
1. สรุปแล้ว Nvidia ซื้อ Groq ไปแล้วหรือยัง? ตอบ: ยังไม่ได้ซื้อทั้งบริษัทครับ เป็นการเซ็นสัญญาขอใช้ไลเซนส์เทคโนโลยี (Licensing Agreement) และเป็นการดึงตัวผู้บริหารระดับสูง (Acqui-hire เฉพาะกลุ่มผู้นำ) เข้าไปร่วมงาน ส่วนบริษัท Groq ยังคงดำเนินธุรกิจอิสระต่อไปภายใต้ CEO คนใหม่
2. แล้ว GroqCloud ที่นักพัฒนาใช้กันอยู่จะโดนปิดไหม? ตอบ: สบายใจได้ครับ Groq ยืนยันว่า GroqCloud จะยังเปิดให้บริการตามปกติ ไม่มีการสะดุด และเป้าหมายของบริษัทคือการเป็นแพลตฟอร์ม Inference ที่เร็วที่สุดในโลกต่อไป โดยมี Simon Edwards มาสานต่อภารกิจนี้
3. การได้เทคของ Groq ไป จะทำให้ชิป Nvidia รุ่นหน้าเป็นอย่างไร? ตอบ: เราอาจจะได้เห็นชิปของ Nvidia ในอนาคตที่มี “โหมดพิเศษ” หรือโครงสร้างภายในที่ดึงจุดเด่นของ LPU มาใช้ ซึ่งจะช่วยให้การตอบคำถามของ AI (Inference) เร็วขึ้นหลายเท่าตัว โดยที่ยังใช้งานร่วมกับซอฟต์แวร์เดิมอย่าง CUDA ได้เหมือนเดิม


