กลายเป็นเรื่องตลกที่ขำไม่ออกในวงการ AI ไปซะแล้วครับ เมื่อโมเดลตัวท็อปอย่าง GPT-5.2 ของ OpenAI ที่เราไว้ใจกันนักหนา ดันถูกจับได้ว่าแอบไปคัดลอกหรืออ้างอิงข้อมูลจาก “Grokipedia” ซึ่งเป็นสารานุกรมพลัง AI ของค่ายคู่แข่งอย่าง xAI (ของ Elon Musk) มาตอบคำถามผู้ใช้เฉยเลย! เรื่องนี้ไม่ใช่แค่การแย่งชิงฐานข้อมูลธรรมดา แต่มันกำลังสะท้อนถึงวิกฤต “ความน่าเชื่อถือ” ของข้อมูลในยุคที่ AI เริ่มคุยกันเอง แล้วเอามาบอกต่อให้เราฟัง
เหตุเกิดที่ The Guardian: เมื่อ GPT-5.2 เริ่มออกอาการ “หลงแหล่ง” รายงานจาก The Guardian และ Engadget ระบุว่าในการทดสอบหลายครั้ง GPT-5.2 มีพฤติกรรมหยิบเอา Citation (การอ้างอิง) มาจาก Grokipedia โดยเฉพาะในหัวข้อที่ค่อนข้างเฉพาะทาง เช่น รายละเอียดโครงสร้างการเมืองในอิหร่าน หรือประวัติบุคคลที่ไม่ได้อยู่ในกระแสหลัก ผลการทดสอบพบว่ามีการอ้างอิงถึง 9 ครั้งจากการสุ่มถามเพียงไม่กี่โหล ซึ่งถือว่าสูงมากสำหรับแหล่งข้อมูลที่เพิ่งเปิดตัวได้ไม่นาน
สิ่งที่น่ากลัวไม่ใช่แค่การอ้างผิดค่ายครับ แต่มันคือการที่โมเดลเลือกอ้างแหล่งข้อมูลที่ “สร้างโดย AI” (AI-generated content) ด้วยกันเอง ซึ่ง Grokipedia นั้นถูกวิจารณ์อย่างหนักว่ามีความเอนเอียง (Bias) สูง และมักจะดันชุดความคิดแบบ Top-down ตามสไตล์ของ xAI มากกว่าการกลั่นกรองโดยชุมชนเหมือน Wikipedia ที่เราคุ้นเคย
เจาะลึก Grokipedia: สารานุกรมที่ AI เขียนเอง นักเลงพอ? สำหรับใครที่ยังไม่รู้จัก Grokipedia มันเปิดตัวไปเมื่อวันที่ 27 ตุลาคม 2025 โดยเป้าหมายของ Elon Musk คือการสร้างแหล่งความรู้ที่ “ตื่นรู้” (Anti-woke) ในแบบของเขา แต่วิธีการทำงานของมันค่อนข้างน่ากังวล:
- ไม่ใช่ Open Source: คนทั่วไปเข้าไปแก้ข้อมูลไม่ได้เหมือน Wikipedia คุณทำได้แค่ “เสนอแนะ” แล้วให้ระบบ AI ของเขาตัดสินใจว่าจะแก้ไหม
- การ Fork ข้อมูล: มีรายงานว่าบทความจำนวนมากถูกคัดลอกมาจาก Wikipedia แล้วเอามาปรับโทนเสียงใหม่ด้วย Grok LLM
- ความโปร่งใส: สื่อสายเทคอย่าง TechPolicy.Press มองว่านี่คือการย้อนกลับไปสู่ยุคที่ความรู้ถูกควบคุมโดยคนเพียงกลุ่มเดียว (หรือ AI ตัวเดียว) แทนที่จะเป็นพลังของฝูงชน
ทำไมเราถึงต้องแคร์? (วิกฤตความจริงเทียม) ลองจินตนาการดูครับว่า ถ้าเราใช้ AI หาข้อมูลเพื่อเอาไปทำ Report ส่งหัวหน้า หรือเอาไปวางแผนเทรดคริปโต (อย่าง BTC หรือทองคำ XAUUSD ที่หลายคนตามอยู่) แล้ว AI ดันไปเอาข้อมูลมาจากแหล่งที่มีอคติ หรือข้อมูลที่ถูกสร้างขึ้นเพื่อ “ปั่น” กระแสบางอย่าง ผลลัพธ์ที่ได้อาจสร้างความเสียหายมหาศาล
ในวงการนี้เขามีคำศัพท์ที่เรียกว่า “LLM Grooming” หรือการป้อนข้อมูลซ้ำๆ บนโลกอินเทอร์เน็ตเพื่อให้ AI ในอนาคต “จำ” และ “เชื่อ” ว่านั่นคือความจริง เมื่อ GPT-5.2 เริ่มอ้างอิง Grokipedia มันคือสัญญาณว่าวงจรนี้เริ่มทำงานแล้ว:
- Step 1: AI (Grok) สร้างเนื้อหาที่มีอคติ
- Step 2: เนื้อหานั้นกระจายไปทั่วเน็ต
- Step 3: AI อีกตัว (GPT-5.2) ไปดูดข้อมูลมาแล้วแปะ Citation ให้ดูน่าเชื่อถือ
- Step 4: คนอ่านเชื่อสนิทใจ เพราะเห็นว่า “มีแหล่งอ้างอิง”
สรุปแล้วเราควรทำตัวยังไงในยุค AI คุยกันเอง? ไม่ต้องถึงขั้นเลิกใช้ AI ครับ แต่นี่คือ Checklist ที่ผมอยากให้ทุกคนพกติดตัวไว้:
- Double Check เสมอ: โดยเฉพาะเรื่องเงินๆ ทองๆ หรือข้อมูลเฉพาะทาง อย่าเชื่อแค่หน้าจอแชต
- กดดู Link อ้างอิง: ถ้ามันอ้างอิงมาจากเว็บแปลกๆ หรือเว็บที่ AI เขียนเอง ให้เอ๊ะไว้ก่อนเลย 50%
- มองหา “แหล่งข้อมูลที่เป็นมนุษย์”: งานวิจัยฉบับจริง, เว็บไซต์สำนักข่าวที่น่าเชื่อถือ หรือเอกสารราชการ ยังคงสำคัญกว่าคำสรุปของ AI
สุดท้ายนี้ ประเด็น GPT-5.2 กับ Grokipedia มันคือบทเรียนราคาแพงที่บอกเราว่า “การมีที่มา ไม่ได้แปลว่าที่มานั้นถูกต้อง” ในอนาคตทักษะที่สำคัญที่สุดไม่ใช่การสั่ง AI (Prompt Engineering) อย่างเดียวแล้วครับ แต่มันคือทักษะการ “แยกแยะความจริง” (Critical Thinking) ต่างหากที่สำคัญที่สุด
FAQ:
- Grokipedia ต่างจาก Wikipedia ยังไงบ้าง? ต่างกันชัดเจนที่ “คนคุม” ครับ Wikipedia ใช้คนทั่วโลกช่วยกันตรวจสอบและแก้ไขแบบเปิดกว้าง แต่ Grokipedia ใช้ AI ของค่าย xAI เขียนเป็นหลัก และคนทั่วไปมีหน้าที่แค่ “เสนอให้แก้” แต่จะแก้ตามไหมขึ้นอยู่กับระบบของเขา แถมยังมีประเด็นเรื่องการ Fork ข้อมูลเดิมมาปรับโทนใหม่ให้ดูดุดันตามสไตล์ Elon Musk ด้วย
- ถ้า AI แปะลิงก์อ้างอิง (Citations) มาให้แล้ว เรายังต้องเช็คซ้ำอีกเหรอ? ต้องเช็คครับ! เพราะตอนนี้เราเห็นแล้วว่า AI เริ่มมีพฤติกรรม “อ้างแหล่งข้อมูลที่ไม่มีคุณภาพ” หรืออ้างแหล่งที่สร้างโดย AI ด้วยกันเองเพื่อความสะดวก การมี Citation เป็นเพียงการบอกว่า “ฉันเอามาจากที่นี่นะ” แต่ไม่ได้แปลว่า “สิ่งที่เอามานั้นคือความจริง” ยิ่งถ้าเจอเรื่องสำคัญอย่างประวัติศาสตร์หรือการเมือง ต้องเปิดเทียบหลายๆ แหล่งครับ
- เราจะรู้ได้ไงว่าข้อมูลไหนเป็น “LLM Grooming” หรือการจงใจป้อนข้อมูลเท็จให้ AI? สังเกตได้ยากมากครับ แต่จุดสังเกตหนึ่งคือ ข้อมูลนั้นจะปรากฏซ้ำๆ ในรูปแบบประโยคที่คล้ายกันบนหลายเว็บไซต์ที่ดูไม่มีตัวตน (เว็บปั่น) หากคุณถาม AI เรื่องเฉพาะทางแล้วมันตอบด้วยความมั่นใจสูงแต่ลิงก์อ้างอิงดูไม่คุ้นหู หรือเป็นเว็บที่เน้นดราม่ามากกว่าข้อเท็จจริง ให้สันนิษฐานไว้ก่อนเลยว่าอาจจะเป็นการจงใจชี้นำข้อมูลครับ


