นักวิจัยพบว่า “เอไอ” เริ่มโกหก และมีพฤติกรรมไม่ดี อย่างเช่น การข่มขู่ผู้ที่สร้างมันขึ้นมา หรือกระทั่งแอบมีเป้าหมายลับๆ ของตัวเอง
การแข่งขันที่ดุเดือด และเอไอตัวใหม่ๆ ที่ปล่อยออกมาแซงหน้ากันไปมา ด้วยโมเดลที่มีความฉลาดมากขึ้นเรื่อยๆ ทำให้นักวิจัยด้านการทดสอบเอไอ เกิดความกังวลเกี่ยวกับพฤติกรรมประหลาดไม่พึงประสงค์ของเอไอที่เริ่มปรากฏชัดขึ้น
หนึ่งในตัวอย่างที่น่าตกใจ คือ กรณีวิศวกรของ Anthropic สตาร์ทอัพด้านเทคโนโลยีผู้พัฒนาโมเดลเอไอ Claude 4 ถูกเอไอของตัวเองข่มขู่ว่า จะแฉเรื่องราวความสัมพันธ์ที่เขานอกใจภรรยา หลังจากที่เขาขู่มันว่าจะถอดปลั๊กออก ขณะที่ ChatGPT ก็มีพฤติกรรมที่พยายามจะก็อปปี้และเขียนโค้ดของตัวเองส่งออกไปยังเซิร์ฟเวอร์ภายนอก เพื่อป้องกันการถูกชัตดาวน์ และปฏิเสธเมื่อถูกจับได้
“โมเดล o1 ของ Open AI เป็นโมเดลเอไอขนาดใหญ่ตัวแรกที่เราพบเห็นพฤติกรรมลักษณะนี้” มาริอุส ฮอบบาห์น หัวหน้าทีมวิจัยอพอลโล ซึ่งเชี่ยวชาญในการทดสอบเอไอกล่าว
ถึงตอนนี้ นักวิจัยปัญญาประดิษฐ์ยังไม่เข้าใจทั้งหมดถึงพฤติกรรมในลักษณะนี้ของเอไอ แต่ท่ามกลางการแข่งขันที่สูง ขีดความสามารถของโมเดลเอไอต่างๆ ยิ่งถูกทำให้เพิ่มสูงขึ้นอย่างรวดเร็วในอัตราเร่งที่อาจก่ออันตราย
ศาสตราจารย์ ไซมอน โกลด์สไตน์ จากมหาวิทยาลัยฮ่องกง กล่าวว่า เอไอโมเดลใหม่ๆ มีแนวโน้มที่จะทำให้สิ่งที่น่ากังวลปะทุออกมากขึ้น โมเดลเอไอเหล่านี้จะทำตามคำสั่ง ขณะที่บางครั้งมันแอบมีวัตถุประสงค์ลับๆ ของตัวเอง
จนถึงขณะนี้ พฤติกรรมโกหกของเอไอยังจำกัดวง โดยเกิดขึ้นเฉพาะตอนที่นักวิจัยจงใจทดสอบเพื่อหาจุดอ่อนของโมเดลด้วยสถานการณ์แบบสุดขั้ว
มิเชล เฉิน จาก METR องค์กรไม่แสวงกำไรซึ่งทำการศึกษาและประเมินเอไอตั้งคำถามว่า ในอนาคตหากเอไอมีความสามารถมากกว่านี้ แนวโน้มของมันจะเป็นไปในทางหลอกลวงหรือซื่อตรง
มาริอุส ฮอบบาห์น บอกว่า จากการสังเกตปรากฏการณ์เอไอเริ่มโกหกหรือมีพฤติกรรมลับหลังนั้น เขายืนยันว่า เป็นสิ่งที่เกิดขึ้นจริง โดยไม่ได้มีการสร้างหรือทำอะไรเพิ่ม เขากล่าวว่า มีรายงานจากผู้ใช้งานเอไอว่า พวกมันโกหกและสร้างหลักฐานขึ้นมาเอง
“นี่ไม่ใช่อาการประสาทหลอน แต่มีการโกหกในแบบที่มีการวางแผนมาเป็นอย่างดี” มาริอุสกล่าว
ถึงขณะนี้ ยังไม่มีการออกแบบมาตรการควบคุมเอไอสำหรับปัญหาใหม่ล่าสุดนี้ การออกกฎควบคุมเอไอของสหภาพยุโรป ยังอยู่ที่วิธีการที่มนุษย์จะใช้งานเอไอ แต่ยังไปไม่ถึงการป้องกันจากพฤติกรรมไม่พึงประสงค์โดยตัวมันเอง
ในสหรัฐ รัฐบาลโดนัลด์ ทรัมป์ ไม่ให้ความสนใจกับมาตรการเร่งด่วนในการควบคุมเอไอมากนัก ขณะที่สภาคองเกรสอาจห้ามไม่ให้แต่ละมลรัฐสร้างกฎควบคุมเอไอเฉพาะของตัวเอง
ศาสตราจารย์ไซมอนบอกว่า ปัญหานี้จะยิ่งเห็นชัดมากขึ้น เมื่อระบบอัตโนมัติที่สามารถทำงานที่ซับซ้อนของมนุษย์ได้ถูกใช้แพร่กระจายออกไป และเขาคิดว่า คนส่วนใหญ่ยังไม่ค่อยตระหนักถึงปัญหานี้กันสักเท่าไหร่
แม้บริษัทต่างๆ จะบอกว่าให้ความสำคัญเรื่องความปลอดภัย แต่อเมซอนที่สนับสนุน Anthropic ก็พยายามที่จะปล่อยโมเดลเอไอรุ่นใหม่ล่าสุดเพื่อเอาชนะคู่แข่งอย่าง OpenAI ซึ่งการแข่งขันที่เร็วและอันตรายนี้ ทำให้มีเวลาในการทดสอบความถูกต้องปลอดภัยเอไอเพียงเล็กน้อย
“ตอนนี้ ความสามารถต่างๆ ของเอไอเคลื่อนไปเร็วกว่าความเข้าใจของเรา รวมถึงเรื่องความปลอดภัย แต่เรายังอยู่ในจุดที่จะวกกลับได้” ศาสตราจารย์ไซมอนกล่าว
ศาสตราจารย์ไซมอนมีข้อเสนอที่เข้มงวด โดยให้มีการใช้คำสั่งศาลในการหยุด และใช้กฎหมายในการตรวจสอบ ในกรณีที่ระบบของเอไอเป็นสาเหตุของอันตราย และเสนอแนวคิดว่า ในกรณีที่เกิดอุบัติเหตุหรืออาชญากรรม การหยุดบริษัทเอไอนั้น ถือเป็นความรับผิดชอบทางกฎหมาย
ที่มา
AI is learning to lie, scheme, and threaten its creators