ซานฟรานซิสโก 31 พ.ค.- กลุ่มผู้บริหารด้านเทคโนโลยีปัญญาประดิษฐ์หรือเอไอ (AI) ร่วมกับกลุ่มผู้เชี่ยวชาญและนักวิชาการเตือนว่า เอไออาจทำให้มนุษย์สูญพันธุ์ ขอให้ผู้มีหน้าที่กำหนดนโยบายยกระดับความเสี่ยงนี้ให้เท่ากับความเสี่ยงจากโรคระบาดและสงครามนิวเคลียร์
ศูนย์เพื่อความปลอดภัยเอไอหรือเคส (CAIS) ซึ่งเป็นองค์กรไม่แสวงหากำไรเผยแพร่จดหมายเปิดผนึกที่มีคนลงชื่อมากกว่า 350 คน เช่น นายแซม อัลต์แมน ประธานเจ้าหน้าที่บริหารหรือซีอีโอของโอเพนเอไอ (OpenAI) ที่พัฒนาแชทจีพีที (ChatGPT) นายเจฟฟรีย์ ฮินตัน และนายโยชัว เบนจิโอ 2 ใน 3 ของผู้ได้รับฉายาเจ้าพ่อแห่งเอไอ ซีอีโอของไมโครซอฟท์และกูเกิล นักวิชาการจากหลายสถาบันในสหรัฐไปจนถึงจีน เนื้อความในจดหมายระบุว่า การบรรเทาความเสี่ยงเรื่องมนุษย์จะสูญพันธุ์จากเอไอควรได้รับความสำคัญในระดับโลก ควบคู่ไปกับความเสี่ยงทางสังคมอื่น ๆ อย่างโรคระบาดและ สงครามนิวเคลียร์
เคสระบุว่า นายยาน เลอกัน เจ้าพ่อเอไอคนที่ 3 ซึ่งทำงานอยู่กับเมตาที่เป็นบริษัทแม่ของเฟซบุ๊กไม่ยอมลงนาม และทางกลุ่มได้ส่งคำเชิญลงนามไปถึงนายอีลอน มัสก์ ซีอีโอทวิตเตอร์แล้ว หวังว่าเขาจะลงนามในสัปดาห์นี้ นายมัสก์และผู้เชี่ยวชาญด้านเอไอหลายคนเป็นกลุ่มแรก ๆ ที่เตือนตั้งแต่เดือนเมษายนว่า เอไออาจมีความเสี่ยงต่อสังคม
ความก้าวหน้าในการพัฒนาเอไอเมื่อไม่นานมานี้ทำให้เกิดเครื่องมือใหม่ ๆ ที่สามารถนำไปใช้งานตั้งแต่การวินิจฉัยทางการแพทย์ไปจนถึงการเขียนสำนวนทางกฎหมาย ขณะเดียวกันก็จุดกระแสวิตกว่าอาจนำมาซึ่งการละเมิดความเป็นส่วนตัว ส่งเสริมการเผยแพร่ข้อมูลเท็จ และถึงขั้นที่เอไอคิดเองทำเอง ก่อนหน้านี้สถาบันอนาคตแห่งชีวิต (Future of Life Institute) ที่เป็นองค์กรไม่แสวงหากำไรได้ออกจดหมายเปิดผนึกเมื่อ 2 เดือนก่อน เรียกร้องให้หยุดการวิจัยเอไอในระดับที่ล้ำสมัยโดยทันที เนื่องจากมีความเสี่ยงต่อมนุษยชาติ.-สำนักข่าวไทย