Skip to main content

 

นักวิจัยพบว่า “เอไอ” เริ่มโกหก และมีพฤติกรรมไม่ดี อย่างเช่น การข่มขู่ผู้ที่สร้างมันขึ้นมา หรือกระทั่งแอบมีเป้าหมายลับๆ ของตัวเอง

การแข่งขันที่ดุเดือด และเอไอตัวใหม่ๆ ที่ปล่อยออกมาแซงหน้ากันไปมา ด้วยโมเดลที่มีความฉลาดมากขึ้นเรื่อยๆ ทำให้นักวิจัยด้านการทดสอบเอไอ เกิดความกังวลเกี่ยวกับพฤติกรรมประหลาดไม่พึงประสงค์ของเอไอที่เริ่มปรากฏชัดขึ้น

หนึ่งในตัวอย่างที่น่าตกใจ คือ กรณีวิศวกรของ Anthropic สตาร์ทอัพด้านเทคโนโลยีผู้พัฒนาโมเดลเอไอ Claude 4 ถูกเอไอของตัวเองข่มขู่ว่า จะแฉเรื่องราวความสัมพันธ์ที่เขานอกใจภรรยา หลังจากที่เขาขู่มันว่าจะถอดปลั๊กออก ขณะที่  ChatGPT ก็มีพฤติกรรมที่พยายามจะก็อปปี้และเขียนโค้ดของตัวเองส่งออกไปยังเซิร์ฟเวอร์ภายนอก เพื่อป้องกันการถูกชัตดาวน์ และปฏิเสธเมื่อถูกจับได้

“โมเดล o1 ของ Open AI เป็นโมเดลเอไอขนาดใหญ่ตัวแรกที่เราพบเห็นพฤติกรรมลักษณะนี้” มาริอุส ฮอบบาห์น หัวหน้าทีมวิจัยอพอลโล ซึ่งเชี่ยวชาญในการทดสอบเอไอกล่าว

ถึงตอนนี้ นักวิจัยปัญญาประดิษฐ์ยังไม่เข้าใจทั้งหมดถึงพฤติกรรมในลักษณะนี้ของเอไอ แต่ท่ามกลางการแข่งขันที่สูง ขีดความสามารถของโมเดลเอไอต่างๆ ยิ่งถูกทำให้เพิ่มสูงขึ้นอย่างรวดเร็วในอัตราเร่งที่อาจก่ออันตราย

ศาสตราจารย์ ไซมอน โกลด์สไตน์ จากมหาวิทยาลัยฮ่องกง กล่าวว่า เอไอโมเดลใหม่ๆ มีแนวโน้มที่จะทำให้สิ่งที่น่ากังวลปะทุออกมากขึ้น โมเดลเอไอเหล่านี้จะทำตามคำสั่ง ขณะที่บางครั้งมันแอบมีวัตถุประสงค์ลับๆ ของตัวเอง

จนถึงขณะนี้ พฤติกรรมโกหกของเอไอยังจำกัดวง โดยเกิดขึ้นเฉพาะตอนที่นักวิจัยจงใจทดสอบเพื่อหาจุดอ่อนของโมเดลด้วยสถานการณ์แบบสุดขั้ว

มิเชล เฉิน จาก  METR องค์กรไม่แสวงกำไรซึ่งทำการศึกษาและประเมินเอไอตั้งคำถามว่า ในอนาคตหากเอไอมีความสามารถมากกว่านี้ แนวโน้มของมันจะเป็นไปในทางหลอกลวงหรือซื่อตรง

มาริอุส ฮอบบาห์น บอกว่า จากการสังเกตปรากฏการณ์เอไอเริ่มโกหกหรือมีพฤติกรรมลับหลังนั้น เขายืนยันว่า เป็นสิ่งที่เกิดขึ้นจริง โดยไม่ได้มีการสร้างหรือทำอะไรเพิ่ม เขากล่าวว่า มีรายงานจากผู้ใช้งานเอไอว่า พวกมันโกหกและสร้างหลักฐานขึ้นมาเอง

นี่ไม่ใช่อาการประสาทหลอน แต่มีการโกหกในแบบที่มีการวางแผนมาเป็นอย่างดี” มาริอุสกล่าว

ถึงขณะนี้ ยังไม่มีการออกแบบมาตรการควบคุมเอไอสำหรับปัญหาใหม่ล่าสุดนี้ การออกกฎควบคุมเอไอของสหภาพยุโรป ยังอยู่ที่วิธีการที่มนุษย์จะใช้งานเอไอ แต่ยังไปไม่ถึงการป้องกันจากพฤติกรรมไม่พึงประสงค์โดยตัวมันเอง

ในสหรัฐ รัฐบาลโดนัลด์ ทรัมป์ ไม่ให้ความสนใจกับมาตรการเร่งด่วนในการควบคุมเอไอมากนัก ขณะที่สภาคองเกรสอาจห้ามไม่ให้แต่ละมลรัฐสร้างกฎควบคุมเอไอเฉพาะของตัวเอง

ศาสตราจารย์ไซมอนบอกว่า ปัญหานี้จะยิ่งเห็นชัดมากขึ้น เมื่อระบบอัตโนมัติที่สามารถทำงานที่ซับซ้อนของมนุษย์ได้ถูกใช้แพร่กระจายออกไป และเขาคิดว่า คนส่วนใหญ่ยังไม่ค่อยตระหนักถึงปัญหานี้กันสักเท่าไหร่

แม้บริษัทต่างๆ จะบอกว่าให้ความสำคัญเรื่องความปลอดภัย แต่อเมซอนที่สนับสนุน Anthropic ก็พยายามที่จะปล่อยโมเดลเอไอรุ่นใหม่ล่าสุดเพื่อเอาชนะคู่แข่งอย่าง OpenAI ซึ่งการแข่งขันที่เร็วและอันตรายนี้ ทำให้มีเวลาในการทดสอบความถูกต้องปลอดภัยเอไอเพียงเล็กน้อย

“ตอนนี้ ความสามารถต่างๆ ของเอไอเคลื่อนไปเร็วกว่าความเข้าใจของเรา รวมถึงเรื่องความปลอดภัย แต่เรายังอยู่ในจุดที่จะวกกลับได้” ศาสตราจารย์ไซมอนกล่าว

ศาสตราจารย์ไซมอนมีข้อเสนอที่เข้มงวด โดยให้มีการใช้คำสั่งศาลในการหยุด และใช้กฎหมายในการตรวจสอบ ในกรณีที่ระบบของเอไอเป็นสาเหตุของอันตราย และเสนอแนวคิดว่า ในกรณีที่เกิดอุบัติเหตุหรืออาชญากรรม การหยุดบริษัทเอไอนั้น ถือเป็นความรับผิดชอบทางกฎหมาย


ที่มา
AI is learning to lie, scheme, and threaten its creators