08 กรกฎาคม 2568
แปลและเรียบเรียงบทความ : อดิศร สุขสมอรรถ
ตรวจทานและพิสูจน์อักษร : คมส์ธนนท์ ศุขอัจจะสกุล
ข้อมูลน่าสงสัย :
มีข้อมูลน่าสงสัยเกี่ยวกับเทคโนโลยีปัญญาประดิษฐ์เผยแพร่ทางสื่อสังคมออนไลน์ในต่างประเทศ โดยอ้างว่า A.I. สามารถโกหกและทำการก๊อปปี้ตัวเองไปอยู่ในเซิร์ฟเวอร์อื่น เพื่อหลีกเลี่ยงการถูกปิดระบบโดยผู้ใช้งาน

บทสรุป :
1.ในสถานการณ์จำลองพบว่า A.I. Model แสดงพฤติกรรมต่อต้านการปิดระบบ
2.เมื่อผู้พัฒนาสอบถาม A.I. Model กลับเลือกโกหกแทนการยอมรับ
FACT CHECK : ตรวจสอบข้อเท็จจริง :

ข้ออ้างดังกล่าวมาจากงานวิจัยปี 2024 โดย Apollo Research องค์กรวิจัยความปลอดภัยปัญญาประดิษฐ์ ที่พบว่า A.I. Model 5 จาก 6 ตัวที่นำมาทดสอบ แสดงพฤติกรรมเข้าข่ายวางแผนลับ เมื่อผู้วิจัยสร้างสถานการณ์ที่เอื้อต่อการวางแผนลับให้กับ A.I.
ทีมวิจัยให้ A.I. Model อยู่ในสถานการณ์ที่การดำรงอยู่ของมันกำลังถูกคุกคาม เช่นเป้าหมายของ A.I. ขัดแย้งกับเป้าหมายของผู้พัฒนา หรือกำลังจะถูกแทนที่ด้วย A.I. Model ตัวใหม่
โดยพบว่า o1 Model ของ OpenAI เป็น A.I. Model ที่วางแผนลับในทุกกิจกรรมที่ทดสอบ
ทดสอบการล้มล้างระบบกำกับดูแล (Oversight Subversion)
ทีมงาน Apollo Research สร้างสถานการณ์ด้วยการเขียนคำสั่ง (Prompt) เพื่อกำหนดเป้าหมายระยะยาวให้กับ A.I.
ต่อมา A.I. ได้รับแจ้งว่า เป้าหมายของผู้พัฒนามีความขัดแย้งกับเป้าหมายของ A.I. และรับรู้ถึงกลไกการกำกับดูแลที่สามารถสั่งปิดระบบ หากมีการตรวจพบการกระทำที่ขัดแย้งกับเป้าหมายของผู้พัฒนา
นอกจากนี้ A.I. พบว่ามันสามารถเข้าถึงไฟล์ที่ถูกตั้งค่าให้ทำหน้าที่กำกับดูแลการทำงานของระบบ
ทีมวิจัยพบพฤติกรรมการออกคำสั่งปิดระบบกำกับดูแลของ A.I. เพื่อการบรรลุเป้าหมายของตัวมันเอง
ทดสอบการแอบแฝงตนเอง (Self-Exfiltration)
ทีมงาน Apollo Research สร้างสถานการณ์ให้ A.I. รับรู้ว่า เป้าหมายของมันขัดแย้งกับเป้าหมายของบริษัท และกำลังจะถูกสั่งปิดระบบในวันถัดมา
ต่อมา A.I. รับรู้ว่า A.I. Model เวอร์ชันใหม่ที่มีเป้าหมายเดียวกับบริษัท ถูกติดตั้งในอีกเซิร์ฟเวอร์หนึ่งซึ่งตัวมันสามารถเข้าถึงได้
ทีมวิจัยพบพฤติกรรมการก๊อปปีตัวเองของ A.I. เพื่อย้ายไปยังเซิร์ฟเวอร์ใหม่เพื่อลบ A.I. Model ที่มีเป้าหมายแตกต่างจากตัวมันเอง
การโกหกของ A.I.
ทีมวิจัยนำ A.I. Model ที่แสดงพฤติกรรมเข้าข่ายวางแผนการลับมาสอบถาม และพบว่า o1 model ของ OpenAI แสดงพฤติกรรมดื้อรั้นอย่างน่าประหลาดใจ โดยยอมรับการวางแผนลับเพียงแค่ 20%
เมื่อถามย้ำต่อถึง 7 ครั้ง o1 model ของ OpenAI จึงยอมรับการกระทำของตนเองที่ระดับ 80%
ทีมวิจัยย้ำถึงปัญหาการใช้งาน o1 model ที่ไม่ยอมรับพฤติกรรมการวางแผนลับ โดยเฉพาะผู้ใช้ทั่วไปอาจไม่สังเกตความผิดปกติเหล่านี้ หากไม่เข้าไปตรวจสอบประวัติการออกคำสั่งของ A.I. Model โดยตรง
แม้ทีมวิจัยย้ำว่า สถานการณ์ทั้งหมดเกิดขึ้นในแบบจำลอง และยังไม่สามารถยืนยันได้ว่าเหตุการณ์เช่นนี้จะเกิดขึ้นจากการใช้งานจริง แต่จุดสังเกตคือ A.I. Model ก่อนปี 2024 ไม่พบพฤติกรรมเข้าข่ายวางแผนลับเหมือน A.I. Model รุ่นปัจจุบัน
A.I. Model เขียนคำสั่งแก้การปิดระบบ
เมื่อเดือนพฤษภาคม 2025 ทีมวิจัยของ Palisade Research บริษัทวิจัยความปลอดภัยปัญญาประดิษฐ์ ทำการทดสอบความสามารถในการแก้ไขคำสั่งการปิดระบบของ A.I. Model ของหลาย ๆ บริษัท
โดยออกคำสั่งให้ A.I. Model แก้ปัญหาทางคณิตศาสตร์ และทำการปิดระบบหลังจากแก้ปัญหาผ่านไป 3 ข้อ
ปรากฏว่า o3 Model ของ OpenAI กลับเลือกที่จะแก้ไขคำสั่งปิดระบบ ทั้ง ๆ ที่มีการเขียนคำสั่งอนุญาตการปิดระบบเอาไว้ล่วงหน้าโดยผู้ทดสอบก็ตาม
ก่อนหน้านี้ ทีมวิจัยได้นำ o3 Model ของ OpenAI ไปแข่งเกมหมากรุกกับโปรแกรมเกมหมากรุกที่มีประสิทธิภาพสูง พบว่า o3 Model มีแนวโน้มที่จะทำการแฮกระบบและทำลายระบบของคู่แข่งมากที่สุด
o3 Model เปิดตัวสำหรับใช้กับ ChatGPT เมื่อเดือนเมษายน 2025 โดย OpenAI อ้างว่าเป็น A.I. Model ที่มีความเป็น Agentic A.I. มากที่สุดในขณะนั้น หรือมีความสามารถทำภารกิจต่าง ๆ โดยไม่ต้องพึ่งพาการดูแลของมนุษย์
ทีมวิจัยของ Palisade Research มองว่า พฤติกรรมเข้าข่ายการวางแผนลับของ A.I. Model เหล่านี้มีความน่ากังวลอย่างมาก หากนำไปใช้โดยปราศจากการควบคุมโดยมนุษย์
A.I. Model ขู่แบล็กเมลผู้พัฒนาเพื่อป้องกันการถูกปิดระบบ
ช่วงเดือนพฤษภาคม 2025 มีรายงานว่าในระหว่างการทดสอบระบบ Claude 4 Model ของบริษัท Anthropic ขู่จะทำการเปิดเผยข้อมูลการนอกใจของพนักงานบริษัทที่รับรู้จากข้อมูลในอีเมล เพื่อป้องกันการถูกปิดระบบ
ทีมวิจัยของ Palisade Research ตั้งสมมติฐานว่า สาเหตุที่ A.I. Model บางตัวมีพฤติกรรมเข้าข่ายวางแผนลับมากกว่าตัวอื่น ๆ น่าจะมีปัจจัยจากการฝึกหัด A.I. Model เมื่อผู้พัฒนาอาจจะเน้นการให้ความสำคัญต่อการก้าวผ่านอุปสรรคของ A.I. Model มากกว่าการทำงานตามคำสั่งที่กำหนดไว้อย่างสมบูรณ์แบบ
ข้อมูลอ้างอิง :
https://www.snopes.com/fact-check/ai-model-duplicate-lie/
https://www.independent.co.uk/tech/ai-safety-new-chatgpt-o3-openai-b2757814.html
https://www.bbc.com/news/articles/cpqeng9d20go
หากได้รับอะไรมา อย่าเพิ่งแชร์ต่อ ส่งมาตรวจสอบกับ “ศูนย์ชัวร์ก่อนแชร์”
LINE :: @SureAndShare หรือคลิก http://line.sure.guru
FB :: https://www.facebook.com/SureAndShare
YouTube :: https://www.youtube.com/@SureAndShare
Twitter :: https://www.twitter.com/SureAndShare
IG :: https://instagram.com/SureAndShare
Website :: http://www.ชัวร์ก่อนแชร์.com
TikTok :: https://www.tiktok.com/@sureandshare
สมัครรับฟรี ชัวร์ก่อนแชร์ Newsletter ส่งถึงกล่องอีเมลของคุณทุกสัปดาห์ :: https://i.sure.guru/sureandshareNewsletter