เมื่อปัญญาประดิษฐ์ หรือ “เอไอ” เข้ามามีบทบาทในชีวิตเรามากขึ้นเรื่อยๆ งานวิจัยล่าสุดเผยว่า คนส่วนใหญ่ไม่สามารถแยกความแตกต่างระหว่างเสียงของ “มนุษย์จริง” กับ “เสียงจำลอง” ที่สร้างโดยเอไอได้แล้ว
งานวิจัยล่าสุดตีพิมพ์ในวารสาร PLoS One นักวิจัยพบว่า ขณะนี้คนส่วนใหญ่ไม่สามารถแยกแยะ เสียงโคลน (Cloned voices) ที่เอไอสร้างขึ้นกับเสียงมนุษย์จริงได้
เทคโนโลยีโคลนเสียงด้วยเอไอ (AI voice cloning) ทำงานโดยการวิเคราะห์และดึงลักษณะเฉพาะของเสียงจากข้อมูลเสียงต้นฉบับออกมา แล้วนำมาสร้างเสียงจำลองที่สามารถเลียนแบบได้อย่างแม่นยำ ทำให้กลายเป็นเครื่องมือยอดนิยมของมิจฉาชีพทางโทรศัพท์ ซึ่งบางครั้งถึงขั้นใช้เสียงที่ลอกเลียนจากโพสต์ในโซเชียลมีเดียของเหยื่อหรือคนในครอบครัวของเหยื่อเอง
“กลุ่มผู้สูงอายุ” เป็นกลุ่มเสี่ยงที่สุด งานวิจัยของมหาวิทยาลัยพอร์ตสมัธพบว่า ผู้ที่มีอายุมากกว่า 75 ปีอย่างน้อย 2 ใน 3 เคยมีประสบการณ์ถูกมิจฉาชีพพยายามหลอกลวงทางโทรศัพท์ โดยเกือบร้อยละ 60 เกิดขึ้นผ่านการโทรด้วยเสียง
ในงานวิจัย ให้ผู้เข้าร่วมการทดลองฟังตัวอย่างเสียงจำนวน 80 เสียง ครึ่งหนึ่งเป็นเสียงจากเอไอ และอีกครึ่งหนึ่งเป็นเสียงมนุษย์จริง โดยพวกเขาจะให้คะแนนเสียงเหล่านั้นตามระดับ “ความน่าเชื่อถือ” งานวิจัยพบว่าร้อยละ 58 ของผู้เข้าร่วมทดลอง เข้าใจผิดคิดว่าเสียงโคลนนั้นเป็นเสียงจริง
“ประเด็นสำคัญที่สุดของการวิจัยนี้คือ เสียงที่สร้างโดยเอไอ โดยเฉพาะเสียงโคลน ฟังดูเหมือนเสียงมนุษย์จริง ๆ ไม่ต่างจากการบันทึกเสียงของคนจริงเลย” ดร.นาดีน ลาแวน หัวหน้านักวิจัยและอาจารย์ด้านจิตวิทยา มหาวิทยาลัยควีนแมรี ลอนดอน กล่าว
นักวิจัยระบุว่า เสียงที่สร้างโดยเอไอ แบ่งออกเป็นสองประเภท ได้แก่ เสียงปลอมที่สร้างขึ้นโดยเอไอ (generic AI) กับเสียงที่จำลองหรือโคลนมาจากมนุษย์จริง (Cloned voices) ซึ่งสร้างขึ้นจากเสียงของคนจริงๆ ที่ถูกบันทึกเอาไว้ ซึ่งเสียงที่ถูกโคลนมาจากมนุษย์จริงนั้น ตรวจจับได้ยากกว่า
ดร.นาดีนบอกว่า สิ่งที่น่าทึ่งคือ เราใช้เครื่องมือที่มีจำหน่ายทั่วไปในท้องตลาด ซึ่งหมายความว่าใครๆ ก็สามารถสร้างเสียงที่ฟังดูสมจริงได้ โดยที่ไม่ต้องใช้เงินจำนวนมาก หรือไม่จำเป็นต้องมีทักษะด้านโปรแกรมมิงหรือเทคโนโลยีเฉพาะทางใดๆ เลย
การโคลนเสียงด้วยเอไอสร้างความกังวล โดยเฉพาะการนำเสียงของคนที่มีชื่อเสียงมาโคลนโดยที่ไม่ได้รับอนุญาต เช่น เสียงของนักแสดงอย่าง สการ์เล็ตต์ โจแฮนส์สัน พบว่า เสียงจากเอไอฟังดู “คล้ายกับเสียงของเธอจนน่าขนลุก”
นอกจากนี้ ยังมีการใช้ เสียงปลอม (deepfake) เพื่อเลียนแบบนักการเมืองหรือผู้สื่อข่าว ในความพยายามบิดเบือนความคิดเห็นและเผยแพร่ข้อมูลเท็จ
ดร.นาดีน ชี้ว่า ผู้พัฒนาเทคโนโลยีเอไอ ควรมีความรับผิดชอบในเรื่องนี้ และควรมีมาตรการป้องกันที่เข้มงวดมากขึ้น
“ในมุมมองของนักวิจัย ฉันอยากแนะนำให้บริษัทที่พัฒนาเทคโนโลยีนี้ พูดคุยกับนักจริยธรรมและผู้กำหนดนโยบาย เพื่อพิจารณาประเด็นด้านจริยธรรมและกฎหมาย เช่น เรื่องการเป็นเจ้าของเสียง การให้ความยินยอม และขอบเขตของมันในยุคที่เทคโนโลยีเปลี่ยนแปลงอย่างรวดเร็วเช่นนี้” ดร.นาดีนกล่าว
เธอกล่าวว่า หากเทคโนโลยีนี้ถูกใช้อย่างมีจริยธรรมและมีความรับผิดชอบ ก็จะเป็นประโยชน์อย่างมากในด้านต่างๆ เช่น ด้านการศึกษา การกระจายเสียง การผลิตหนังสือเสียง หรือเพื่อช่วยเหลือผู้ที่ไม่สามารถพูดได้ หรือมีความยากลำบากในการสื่อสารทางเสียง
งานวิจัยล่าสุดพบว่า การเรียนรู้ผ่านเสียงที่ใช้เอไอช่วย สามารถเพิ่มแรงจูงใจและการมีส่วนร่วมในการอ่านของนักเรียนได้ โดยเฉพาะในกลุ่มที่นักเรียนมีภาวะสมาธิสั้น (ADHD) นอกจากนี้ ยังช่วยให้ผู้คนในการสื่อสารข้ามกำแพงด้านภาษาได้ โดยที่ยังคงรักษาน้ำเสียงเฉพาะตัวของแต่ละบุคคลไว้เหมือนเดิม
ที่มา
Most people can’t tell the difference between AI and human voices, study finds