Skip to main content

กลโกงที่ใช้ AI เลียนเสียงคนเพื่อหลอกลวง

I
Written by Irin Rojchanakarn
Updated over a month ago

แม้ว่า ปัญญาประดิษฐ์ (AI) จะช่วยให้หลายงานง่ายขึ้น แต่ในขณะเดียวกันก็ถูกนำไปใช้โดยอาชญากรไซเบอร์เพื่อสร้างการหลอกลวงที่แนบเนียนมากขึ้นเรื่อย ๆ

หนึ่งในภัยคุกคามที่กำลังเพิ่มขึ้นคือ การหลอกลวงด้วยการโคลนเสียง AI ซึ่งผู้กระทำจะใช้ AI เพื่อเลียนแบบเสียงของบุคคลหนึ่ง และแอบอ้างว่าเป็นคนที่น่าเชื่อถือ เช่น ผู้จัดการ เพื่อนร่วมงาน สมาชิกในครอบครัว หรือแม้แต่ผู้บริหารบริษัท

การหลอกลวงเหล่านี้อาจฟังดูสมจริงมาก และอาจกดดันให้เหยื่อโอนเงิน เปิดเผยข้อมูลลับ หรืออนุมัติคำขอเร่งด่วน

หากคุณได้รับสายหรือข้อความเสียงที่ไม่คาดคิด อย่าตกใจ

ให้หยุดและตรวจสอบก่อนดำเนินการ


วิธีการ

ผู้กระทำจะรวบรวมตัวอย่างเสียงสั้น ๆ จากแหล่งต่าง ๆ เช่น:

  • วิดีโอบนโซเชียลมีเดีย

  • การสัมภาษณ์สาธารณะ

  • ข้อความเสียง

  • การประชุมหรือเว็บบินาร์ที่มีการบันทึก

จากนั้นใช้เครื่องมือ AI เพื่อสร้างเสียงปลอมที่คล้ายกับเสียงจริงแทบแยกไม่ออก

ผู้กระทำจะใช้เสียงปลอมนี้โทรหรือส่งข้อความเสียงไปยังเหยื่อ โดยแอบอ้างว่าเป็นคนที่เหยื่อไว้วางใจ

โดยมากคำขอจะมีลักษณะเร่งด่วน เช่น ขอให้โอนเงิน ขอรหัสผ่าน หรือข้อมูลธุรกิจที่เป็นความลับ


ตัวอย่างที่พบบ่อย

1. ขอเงินแบบเร่งด่วน

คุณได้รับสายจากคนที่ฟังดูเหมือนหัวหน้าของคุณพูดว่า:

“ตอนนี้ผมติดประชุมอยู่ ช่วยโอนเงินไปบัญชีนี้ด่วน”

เสียงฟังดูเหมือนจริง ทำให้คุณรู้สึกต้องรีบดำเนินการ

2. สายฉุกเฉินจากครอบครัว

มิจฉาชีพโทรมาแอบอ้างว่าเป็นคนในครอบครัว:

“ฉันทำโทรศัพท์หาย ต้องใช้เงินด่วน ช่วยโอนมาให้หน่อย”

เสียงคุ้นเคย ทำให้ยากที่จะสงสัย

3. คำสั่งปลอมจากผู้บริหาร

พนักงานได้รับข้อความเสียงที่ฟังเหมือนผู้บริหารระดับสูง ขอให้:

  • ข้อมูลบริษัทที่เป็นความลับ

  • ข้อมูลลูกค้า

  • อนุมัติการจ่ายเงินทันที


ทำไมถึงอันตราย

การหลอกลวงด้วยเสียง AI อันตรายเป็นพิเศษเพราะ:

  • เสียงฟังดูสมจริงมาก

  • เหยื่อเชื่อว่าเป็นคนที่รู้จักจริง

  • ผู้โจมตีสร้างสถานการณ์เร่งด่วนเพื่อลดการตรวจสอบ

  • วิธีตรวจจับแบบเดิมอาจไม่สามารถจับได้

บางกรณี ผู้โจมตีอาจใช้ร่วมกับอีเมลหรือข้อความ เพื่อให้ดูน่าเชื่อถือมากขึ้น


ความเสี่ยง

หากตกเป็นเหยื่อ อาจเกิดผลกระทบร้ายแรง เช่น:

การสูญเสียทางการเงิน

โอนเงินไปยังบัญชีของผู้กระทำ

ข้อมูลรั่วไหล

ข้อมูลสำคัญของบริษัทหรือส่วนบุคคลถูกเปิดเผย

การยึดบัญชี

ผู้โจมตีเข้าถึงระบบหรือบัญชีการเงินได้

การขโมยตัวตน

ข้อมูลที่ถูกขโมยอาจถูกนำไปใช้หลอกลวงในอนาคต


วิธีป้องกันตัว

1. ตรวจสอบคำขอเร่งด่วน

หากมีการขอเงินหรือข้อมูลสำคัญ ให้หยุดและตรวจสอบก่อน เช่น:

  • โทรกลับเบอร์ทางการ

  • ส่งข้อความยืนยัน

  • สอบถามเพื่อนร่วมงานคนอื่น


2. ระวังสายที่กดดันทางอารมณ์

มิจฉาชีพมักสร้างความตื่นตระหนกเพื่อให้ตัดสินใจเร็ว

ให้หยุดคิดก่อนทุกครั้ง


3. ใช้ขั้นตอนตรวจสอบภายใน

สำหรับเรื่องการเงินหรือข้อมูลสำคัญ ให้ทำตามขั้นตอนบริษัทเสมอ

อย่าข้ามขั้นตอนความปลอดภัย แม้คำขอจะดูเร่งด่วน


4. จำกัดการเผยแพร่เสียง

ระวังสิ่งที่แชร์ออนไลน์

เสียง วิดีโอ หรือข้อความเสียง อาจถูกนำไปใช้ฝึก AI ได้


5. ให้ความรู้กับคนรอบตัว

แจ้งให้เพื่อนร่วมงานและครอบครัวรู้เกี่ยวกับภัยนี้

การรับรู้ช่วยลดความเสี่ยง


ตัวอย่างเหตุการณ์จริง (เพื่อประกอบความเข้าใจ)

พนักงานคนหนึ่งได้รับสายที่ฟังเหมือน CEO ของบริษัท

ผู้โทรกล่าวว่า:

“ผมอยู่ในการประชุมลับ ช่วยโอนเงินให้ผู้ขายรายนี้ด่วน”

พนักงานเชื่อและโอนเงินไป

ภายหลัง CEO ตัวจริงยืนยันว่าไม่เคยโทร

เสียงนั้นถูกสร้างด้วย AI


หากพบสิ่งน่าสงสัย

  • อย่าดำเนินการทันที

  • ตรวจสอบผ่านช่องทางทางการ

  • แจ้งทีม IT หรือทีมความปลอดภัย

หากรู้สึกผิดปกติ ให้ตรวจสอบซ้ำเสมอ


แจ้งเหตุ

หากพบสาย ข้อความ หรือคำขอที่น่าสงสัยและแอบอ้างเป็นคนในบริษัท กรุณาแจ้งทันที:


ระวังไว้ ปลอดภัยกว่า

การหลอกลวงด้วยเสียง AI กำลังเพิ่มขึ้นตามเทคโนโลยีที่พัฒนา

แต่ด้วยความรู้และการตรวจสอบง่าย ๆ เราสามารถลดความเสี่ยงและปกป้องตนเองและผู้อื่นได้

หากรู้สึกผิดปกติ

ให้หยุด ตรวจสอบ และรายงาน

เราสามารถช่วยกันสร้างสภาพแวดล้อมดิจิทัลที่ปลอดภัยได้

Did this answer your question?