ไอร์แลนด์เอาจริง! สงครามคุมโซเชียลมีเดียในยุโรปถึงจุดเดือด เมื่อ Coimisiún na Meán หน่วยงานกำกับดูแลสื่อของไอร์แลนด์ประกาศลุยสอบสวน TikTok และ LinkedIn อย่างเป็นทางการ เพราะสงสัยว่าระบบรายงานคอนเทนต์ผิดกฎหมายของทั้งคู่มัน “ยากไป” และ “ไม่โปร่งใส” ตามมาตรฐาน Digital Services Act (DSA) กฎหมายที่แพลตฟอร์มยักษ์ใหญ่ทั่วโลกต้องผวา
ไอร์แลนด์กำลังกลายเป็นด่านหน้าสำคัญของสงคราม “คุมโซเชียลมีเดีย” ในยุโรป ล่าสุดหน่วยงานกำกับดูแลสื่อของไอร์แลนด์อย่าง Coimisiún na Meán ประกาศเริ่มสอบสวน TikTok และ LinkedIn อย่างเป็นทางการ ว่าอาจทำผิดกฎ Digital Services Act (DSA) ของสหภาพยุโรป โดยเฉพาะเรื่องระบบ “รายงานคอนเทนต์ผิดกฎหมาย” ที่อาจใช้งานยาก ไม่ชัดเจน หรือทำให้ผู้ใช้สับสนจนไม่กล้าหรือไม่รู้จะกดแจ้งอย่างไรเลย (Coimisiún na Meán)
ประเด็นหลักที่ถูกจับตาคือ ทั้ง TikTok และ LinkedIn อาจไม่ได้ทำให้ผู้ใช้สามารถรายงานคอนเทนต์ที่เข้าข่ายผิดกฎหมายได้ง่ายพอ โดยเฉพาะคอนเทนต์รุนแรงอย่างเนื้อหาที่เกี่ยวข้องกับการล่วงละเมิดทางเพศต่อเด็ก (CSAM) และยังอาจไม่เปิดให้รายงานแบบไม่เปิดเผยตัวตนตามที่ DSA กำหนดไว้ด้วย (Reuters)
ที่น่ากลัวคือ ถ้าการสอบสวนสรุปว่าทำผิดจริง แพลตฟอร์มอาจโดนค่าปรับสูงสุดถึง 6% ของรายได้ทั่วโลก ตามกรอบของ DSA เลยทีเดียว (Reuters)
DSA คืออะไร ทำไมทุกแพลตฟอร์มต้องกลัว?
Digital Services Act (DSA) เป็นกฎหมายระดับสหภาพยุโรปที่ออกมาเพื่อ “จัดระเบียบแพลตฟอร์มออนไลน์” ทั้งเรื่องความโปร่งใส การจัดการคอนเทนต์ผิดกฎหมาย และการปกป้องผู้ใช้ โดยเฉพาะบนแพลตฟอร์มขนาดใหญ่ที่มีผู้ใช้งานมากกว่า 45 ล้านคนต่อเดือนใน EU อย่าง TikTok และ LinkedIn ที่ถูกจัดเป็น Very Large Online Platforms (VLOPs) (Wikipedia)
หัวใจของ DSA คือ:
-
แพลตฟอร์มต้องมีระบบให้ผู้ใช้รายงานคอนเทนต์ผิดกฎหมายได้ ง่าย ชัดเจน และเข้าถึงได้
-
เมื่อมีการแจ้ง แพลตฟอร์มต้องตรวจสอบและดำเนินการอย่างเหมาะสม
-
ห้ามออกแบบหน้าจอหรือ UI แบบ “หลอก” หรือ “บิดเบือน” (ที่เรียกว่า dark patterns) ทำให้คนใช้สับสน หรือเผลอเลือกตัวเลือกที่ไม่ตรงกับสิทธิของตัวเอง
-
ต้องโปร่งใสเรื่องการลบคอนเทนต์ อัลกอริทึม และการเสี่ยงด้านเนื้อหา
พูดง่าย ๆ DSA คือกฎหมายที่บอกแพลตฟอร์มว่า “คุณจะปล่อยให้ทุกอย่างไหลแบบยุคอินเทอร์เน็ตป่าเถื่อนไม่ได้แล้วนะ ต้องรับผิดชอบสิ่งที่เกิดขึ้นบนแพลตฟอร์มด้วย” นี่คือการเปลี่ยนเกมครั้งใหญ่ในโลกโซเชียลเลยก็ว่าได้
ทำไมไอร์แลนด์ถึงมีบทบาทใหญ่ขนาดนี้?
หลายแพลตฟอร์มยักษ์ใหญ่ เช่น TikTok, LinkedIn, Meta, X ฯลฯ ตั้งสำนักงานใหญ่ฝั่งยุโรปอยู่ในไอร์แลนด์ ทำให้หน่วยงานกำกับดูแลของไอร์แลนด์อย่าง Coimisiún na Meán กลายเป็น “ตำรวจแพลตฟอร์ม” ตัวสำคัญของ EU ไปโดยปริยาย (Reuters)
ก่อนหน้านี้ไอร์แลนด์ก็เพิ่งเปิดสอบสวน X (อดีต Twitter) ไปแล้วรอบหนึ่งภายใต้กฎหมาย DSA เรื่องการจัดการคอนเทนต์ผิดกฎหมายและความปลอดภัยของผู้ใช้ แปลว่าทางการไอร์แลนด์ไม่ได้เล่น ๆ แต่กำลังใช้กฎหมายใหม่นี้จริงจังกับทุกแพลตฟอร์มใหญ่
ดังนั้นการที่ TikTok และ LinkedIn ถูกเปิดสอบพร้อมกัน จึงไม่ใช่เรื่องเล็ก แต่มันสะท้อนว่า “ยุคแพลตฟอร์มทำอะไรก็ได้ใกล้จบลงแล้ว” การสอบสวนนี้เหมือนการส่งสัญญาณดัง ๆ ไปทั่วโลกให้แพลตฟอร์มอื่น ๆ รีบปรับตัว!
Coimisiún na Meán เขาสงสัย TikTok เรื่องอะไร?
จากข้อมูลที่ประกาศออกมา การสอบสวน TikTok จะไปโฟกัสที่ประเด็นเหล่านี้เป็นหลัก (Coimisiún na Meán)
-
ระบบรายงานคอนเทนต์ผิดกฎหมาย (Article 16 DSA)
-
แบบฟอร์มแจ้งคอนเทนต์อาจใช้งานยากหรือซ่อนอยู่ลึก
-
ผู้ใช้บางคนอาจถูกดันให้เลือกแจ้งว่า “ผิดกฎชุมชน” แทนที่จะเป็น “ผิดกฎหมาย” ซึ่งทำให้การจัดการตามกรอบกฎหมายไม่เกิดขึ้น
-
อาจไม่มีตัวเลือกหรือช่องทางที่ชัดเจนในการรายงานคอนเทนต์รุนแรงอย่าง CSAM
-
-
การรายงานแบบไม่เปิดเผยตัวตน
-
มีกังวลว่าผู้ใช้อาจไม่สามารถรายงานคอนเทนต์เกี่ยวกับการล่วงละเมิดเด็กโดยไม่เปิดเผยตัวตน ทั้งที่ DSA มองเรื่องนี้เป็นหัวใจสำคัญของความปลอดภัยออนไลน์ (Reuters)
-
-
Dark Patterns หรือ “ดีไซน์หลอกให้กดผิด” (Article 25 DSA)
-
UI อาจมีลักษณะชวนให้ผู้ใช้ไม่เลือกตัวเลือกที่คุ้มครองสิทธิของตัวเอง
-
เช่น ทำปุ่มรายงานผิดกฎหมายให้เล็ก แอบไว้ หรือใช้คำที่ทำให้คนสับสน
-
โดยรวมคือ Regulator ไม่ได้ดูแค่ “มีปุ่มรายงานไหม” แต่ดูด้วยว่า “ปุ่มนั้นถูกออกแบบมาให้คนใช้จริงไหม หรือแค่ทำให้ครบไปงั้น” นี่คือการลงรายละเอียดที่ลึกกว่ากฎหมายเก่า ๆ มาก
แล้ว LinkedIn ล่ะ ทำไมแพลตฟอร์มสายโปรฯ ถึงโดนด้วย?
หลายคนอาจคิดว่า LinkedIn เป็นแพลตฟอร์มเน้นหางาน เน้นคอนเทนต์สายอาชีพ น่าจะปลอดภัยกว่าที่อื่น แต่ข้อสงสัยของ Coimisiún na Meán กลับคล้าย ๆ กับ TikTok เลย คือมองว่าระบบรายงานคอนเทนต์ผิดกฎหมายของ LinkedIn อาจ (The Sun)
-
เข้าถึงยาก หรือไม่ได้ทำให้ผู้ใช้รู้สึกว่า “แจ้งได้ง่าย”
-
แยกระหว่าง “ผิดกฎหมาย” กับ “แค่ไม่ชอบ / ผิดกฎแพลตฟอร์ม” ไม่ชัดเจน
-
อาจมีดีไซน์ที่ทำให้ผู้ใช้หลงไปกดแจ้งในหมวดอื่นแทน
อย่าลืมว่า DSA ไม่ได้สนใจว่าแพลตฟอร์มจะเป็นคอนเทนต์สายบันเทิง เกม หรือสายงาน แต่สนใจว่ามีระบบดูแลความปลอดภัยของผู้ใช้ตามกฎหมายหรือไม่เท่านั้น เพราะแม้แต่แพลตฟอร์มมืออาชีพก็อาจมีเนื้อหาล่วงละเมิด หรือเนื้อหาที่เข้าข่ายผิดกฎหมายอื่น ๆ ได้เหมือนกัน
ถ้าผิดจริงจะเกิดอะไรขึ้นกับ TikTok และ LinkedIn?
ถ้าหลังการสอบสวนพบว่าทั้ง TikTok และ LinkedIn ทำผิด DSA จริง ผลลัพธ์ที่เป็นไปได้มีตั้งแต่เบาไปหนัก เช่น (Reuters)
-
ต้องแก้ไขระบบรายงานคอนเทนต์ใหม่ให้ตรงตามกฎหมาย
-
อาจต้องเปิดเผยข้อมูลมากขึ้นว่ามีเคสแจ้งเนื้อหาผิดกฎหมายเท่าไร จัดการยังไง
-
โดนคำสั่งให้ปรับ UI / UX ที่เข้าข่าย dark patterns
-
และที่แรงสุดคือ “ค่าปรับ” สูงสุด 6% ของรายได้ทั่วโลก ซึ่งสำหรับแพลตฟอร์มระดับ TikTok หรือ LinkedIn ตัวเลขนี้คือมหาศาล
นอกจากนี้ยังมีผลด้านภาพลักษณ์ เพราะตอนนี้สายตาทั้งฝั่งสื่อ ผู้กำกับดูแล และผู้ใช้ทั่วโลกจับตาดูว่าบริษัทเทคยักษ์ใหญ่จะ “เล่นตามกติกา” แค่ไหนในยุคที่กฎหมายเริ่มจริงจังกับพวกเขามากขึ้นเรื่อย ๆ
คนไทย / คนใช้ในเอเชียต้องสนใจไหม? มันเกี่ยวอะไรกับเรา
ถึง DSA จะเป็นกฎหมายของ EU แต่ผลสะเทือนมักไม่หยุดอยู่แค่ยุโรป เพราะ: (Wikipedia)
-
แพลตฟอร์มชอบทำ “มาตรฐานเดียวกันทั่วโลก”
-
เมื่อปรับฟีเจอร์ รายงานคอนเทนต์ หรือ UI เพื่อตามกฎหมายยุโรปแล้ว หลายครั้งแพลตฟอร์มก็เอาเวอร์ชันนั้นมาใช้ทั่วโลก เพราะต้นทุนในการดูแลหลายเวอร์ชันมันสูงและเสี่ยง
-
-
ผู้ใช้ทั่วโลกได้ระบบรายงานที่ชัดเจนขึ้น
-
ถ้า TikTok / LinkedIn ต้องปรับให้ระบบรายงานเนื้อหาผิดกฎหมายใช้ง่ายขึ้น คนไทยก็มีโอกาสได้ใช้ UI แบบใหม่ที่โปร่งใส เข้าใจง่ายขึ้นเหมือนกัน นี่คืออานิสงส์ทางอ้อมที่เราได้รับ
-
-
มาตรฐานกฎหมายดิจิทัลของไทยอาจเดินตามในอนาคต
-
หลายประเทศมักดูโมเดลของ EU เป็นตัวอย่าง (โดยเฉพาะเรื่องความเป็นส่วนตัวกับความปลอดภัย) ถ้า DSA ได้ผลดี ประเทศอื่นรวมถึงไทยอาจออกกฎหมายลักษณะคล้ายกันเพิ่ม
-
อ่านเกมแล้วอนาคตโซเชียลจะเป็นยังไงต่อ?
จากเคสนี้จะเห็นเทรนด์ชัด ๆ อยู่หลายอย่าง
-
ยุค “ปล่อยฟรีตามใจแพลตฟอร์ม” กำลังจบลง: สังคมเริ่มถามหาความรับผิดชอบมากขึ้น โดยเฉพาะเรื่องเนื้อหาที่เกี่ยวกับเด็ก ความเกลียดชัง และความรุนแรง
-
UI / UX จะถูกตรวจเข้มขึ้น: ไม่ใช่แค่มีปุ่มให้กด แต่ต้องดูว่าออกแบบอย่างเป็นธรรม ไม่ชักจูง ไม่ซ่อนสิทธิของผู้ใช้ไว้หลังเมนูหลายชั้น
-
แพลตฟอร์มต้องลงทุนหนักขึ้นในทีม Trust & Safety: ไม่ว่าจะเป็นการมอนิเตอร์คอนเทนต์ การออกแบบระบบแจ้ง การทำรายงานโปร่งใส ฯลฯ ซึ่งล้วนเป็นต้นทุนทั้งนั้น
สำหรับผู้ใช้อย่างเรา ๆ ด้านดีก็คือ เราจะมีสิทธิและเครื่องมือมากขึ้นในการปกป้องตัวเองจากคอนเทนต์อันตราย แต่อีกด้านหนึ่งก็คือ แพลตฟอร์มอาจ “เข้มงวดเกินไป” ในการลบเนื้อหา เพื่อเลี่ยงความเสี่ยงจากค่าปรับและการสอบสวน ซึ่งเป็นสิ่งที่ต้องจับตาดูต่อไปว่าจุดสมดุลจะอยู่ตรงไหน
FAQ 3 Topics
Q1: ถ้าการสอบสวนครั้งนี้สรุปว่าผิดจริง โทษที่หนักสุดคืออะไร?
A: โทษที่หนักที่สุดคือ ค่าปรับสูงถึง 6% ของรายได้ทั่วโลก ของแพลตฟอร์มนั้น ๆ ตามกรอบของ DSA ซึ่งเป็นตัวเลขที่มหาศาลมาก นอกจากนี้หน่วยงานกำกับดูแลสามารถสั่งให้ปรับปรุงระบบภายในทั้งหมด หรือในกรณีที่ร้ายแรงสุด ๆ (ซึ่งเกิดขึ้นได้ยาก) อาจมีการจำกัดการให้บริการในยุโรปได้เลย
Q2: Dark Patterns ที่ถูกกล่าวถึงคืออะไร? ยกตัวอย่างให้เข้าใจง่ายหน่อยได้ไหม?
A: Dark Patterns คือการออกแบบหน้าจอ (UI/UX) ที่หลอกหรือชักจูงให้ผู้ใช้ทำในสิ่งที่ตัวเองอาจไม่ได้ต้องการ หรือทำให้การใช้สิทธิของตัวเองเป็นเรื่องยาก เช่น การทำให้ปุ่ม “ยอมรับทั้งหมด (Accept All)” มีสีสว่างและเด่นชัด แต่ปุ่ม “ตั้งค่าความเป็นส่วนตัว (Manage Preferences)” ถูกซ่อนไว้ตัวเล็ก ๆ หรือต้องกดหลายขั้นตอน ทำให้ผู้ใช้ขี้เกียจหรือสับสนจนเลือกตัวเลือกที่แพลตฟอร์มอยากให้เลือกแทน
Q3: ทำไมไอร์แลนด์ถึงเป็น “ด่านหน้า” ในการคุมแพลตฟอร์มยักษ์ใหญ่?
A: เป็นเพราะบริษัทเทคโนโลยีใหญ่ ๆ ระดับโลกจำนวนมาก เช่น TikTok, LinkedIn, Meta, Google เลือกที่จะตั้งสำนักงานใหญ่ในยุโรป (European Headquarters) ที่ประเทศไอร์แลนด์ด้วยเหตุผลด้านภาษีและข้อกำหนดทางธุรกิจต่าง ๆ ทำให้หน่วยงานกำกับดูแลของไอร์แลนด์อย่าง Coimisiún na Meán มีอำนาจและหน้าที่ตามกฎหมาย EU ในการเป็นผู้ตรวจสอบหลักของบริษัทเหล่านั้น


