3 กลลวงมิจฉาชีพ ใช้ AI ปลอมเสียง

“ศูนย์ต่อต้านข่าวปลอม” เตือน 3 กลลวงแก๊งมิจฉาชีพ ใช้ AI ปลอมเสียงตุ๋นเหยื่อ แนะมี “สติ” สำคัญที่สุด

ในยุคที่เทคโนโลยีพัฒนาอย่างรวดเร็ว ปัญญาประดิษฐ์ (AI) ไม่ได้เป็นเพียงเครื่องมือที่ช่วยอำนวยความสะดวก แต่ยังกลายเป็นช่องว่างรูปแบบใหม่ให้มิจฉาชีพใช้หลอกลวงผู้คนอย่างแนบเนียน ล่าสุด ศูนย์ต่อต้านข่าวปลอม ประเทศไทย ออกมาให้ข้อสังเกต 3 เทคโนโลยีจาก AI ที่เป็นภัยต่อประชาชน

(4 ก.ค. 68) ศูนย์ต่อต้านข่าวปลอม ประเทศไทย เปิดเผยวิธีสังเกต 3 ข้อในการจับกลลวงมิจฉาชีพ ใช้ AI ปลอมเสียง เพื่อหลอกให้เหยื่อเกิดความเชื่อใจในการทำธุรกรรมทางการเงิน หรือ Voice Cloning สร้างความน่าเชื่อถื่อกับ “เสียง”  

โพสต์ระบุว่า

จริงหรือหลอกบางคนอาจฟังไม่ออก มิจฉาชีพใช้ AI ปลอมแปลงเสียงเป็นบุคคลอื่น หลอกให้เหยื่อเกิดความเชื่อใจในการทำธุรกรรมทางการเงิน สิ่งนี้เรียกว่า Voice Cloning ที่สามารถลอกเลียนเสียงเป็นบุคคลใดก็ได้ ทุกเพศ ทุกวัย กระทั่งสวมรอยเป็นดาราก็สามารถทำได้ 

ในช่วงที่ผ่านมาทั้งประเทศไทยและต่างประเทศเคยมีคนโดนหลอกมาแล้วมากมาย ดังนั้น เพื่อป้องกันไม่ให้เกิดขึ้นกับเรา จึงขอแนะนำวิธีจับพิรุธเสียงที่มาจาก AI ดังนี้ 

1. น้ำเสียงไร้อารมณ์ ขาดความละเอียดอ่อน


2. ออกเสียงวรรณยุกต์ผิดเพี้ยน เว้นวรรคไม่ลื่นไหล


3. ขาดความเข้าใจในอารมณ์ขัน การประชด หรือสำนวน 

ทั้งนี้ สติยังคงเป็นเกราะป้องกันที่ดีที่สุด ภัยรูปแบบใหม่นี้อาจมาในรูปแบบของคนใกล้ตัวที่โทรมาขอความช่วยเหลือ หรือแม้กระทั่งบุคคลมีชื่อเสียงที่คุณติดตาม ความน่าเชื่อถือที่มากับ “เสียง” จึงไม่ใช่สิ่งที่ควรเชื่อเพียงอย่างเดียวอีกต่อไป หากได้ยินเสียงที่ดูแปลก ๆ ขาดความลื่นไหล หรือไร้อารมณ์ ลองตั้งข้อสังเกตไว้ก่อน และอย่ารีบตัดสินใจให้ข้อมูลใด ๆ จนกว่าจะมั่นใจ 

ขอบคุณข้อมูล : ศูนย์ต่อต้านข่าวปลอม ประเทศไทย