แม้ว่า ปัญญาประดิษฐ์ (AI) จะช่วยให้หลายงานง่ายขึ้น แต่ในขณะเดียวกันก็ถูกนำไปใช้โดยอาชญากรไซเบอร์เพื่อสร้างการหลอกลวงที่แนบเนียนมากขึ้นเรื่อย ๆ
หนึ่งในภัยคุกคามที่กำลังเพิ่มขึ้นคือ การหลอกลวงด้วยการโคลนเสียง AI ซึ่งผู้กระทำจะใช้ AI เพื่อเลียนแบบเสียงของบุคคลหนึ่ง และแอบอ้างว่าเป็นคนที่น่าเชื่อถือ เช่น ผู้จัดการ เพื่อนร่วมงาน สมาชิกในครอบครัว หรือแม้แต่ผู้บริหารบริษัท
การหลอกลวงเหล่านี้อาจฟังดูสมจริงมาก และอาจกดดันให้เหยื่อโอนเงิน เปิดเผยข้อมูลลับ หรืออนุมัติคำขอเร่งด่วน
หากคุณได้รับสายหรือข้อความเสียงที่ไม่คาดคิด อย่าตกใจ
ให้หยุดและตรวจสอบก่อนดำเนินการ
วิธีการ
ผู้กระทำจะรวบรวมตัวอย่างเสียงสั้น ๆ จากแหล่งต่าง ๆ เช่น:
วิดีโอบนโซเชียลมีเดีย
การสัมภาษณ์สาธารณะ
ข้อความเสียง
การประชุมหรือเว็บบินาร์ที่มีการบันทึก
จากนั้นใช้เครื่องมือ AI เพื่อสร้างเสียงปลอมที่คล้ายกับเสียงจริงแทบแยกไม่ออก
ผู้กระทำจะใช้เสียงปลอมนี้โทรหรือส่งข้อความเสียงไปยังเหยื่อ โดยแอบอ้างว่าเป็นคนที่เหยื่อไว้วางใจ
โดยมากคำขอจะมีลักษณะเร่งด่วน เช่น ขอให้โอนเงิน ขอรหัสผ่าน หรือข้อมูลธุรกิจที่เป็นความลับ
ตัวอย่างที่พบบ่อย
1. ขอเงินแบบเร่งด่วน
คุณได้รับสายจากคนที่ฟังดูเหมือนหัวหน้าของคุณพูดว่า:
“ตอนนี้ผมติดประชุมอยู่ ช่วยโอนเงินไปบัญชีนี้ด่วน”
เสียงฟังดูเหมือนจริง ทำให้คุณรู้สึกต้องรีบดำเนินการ
2. สายฉุกเฉินจากครอบครัว
มิจฉาชีพโทรมาแอบอ้างว่าเป็นคนในครอบครัว:
“ฉันทำโทรศัพท์หาย ต้องใช้เงินด่วน ช่วยโอนมาให้หน่อย”
เสียงคุ้นเคย ทำให้ยากที่จะสงสัย
3. คำสั่งปลอมจากผู้บริหาร
พนักงานได้รับข้อความเสียงที่ฟังเหมือนผู้บริหารระดับสูง ขอให้:
ข้อมูลบริษัทที่เป็นความลับ
ข้อมูลลูกค้า
อนุมัติการจ่ายเงินทันที
ทำไมถึงอันตราย
การหลอกลวงด้วยเสียง AI อันตรายเป็นพิเศษเพราะ:
เสียงฟังดูสมจริงมาก
เหยื่อเชื่อว่าเป็นคนที่รู้จักจริง
ผู้โจมตีสร้างสถานการณ์เร่งด่วนเพื่อลดการตรวจสอบ
วิธีตรวจจับแบบเดิมอาจไม่สามารถจับได้
บางกรณี ผู้โจมตีอาจใช้ร่วมกับอีเมลหรือข้อความ เพื่อให้ดูน่าเชื่อถือมากขึ้น
ความเสี่ยง
หากตกเป็นเหยื่อ อาจเกิดผลกระทบร้ายแรง เช่น:
การสูญเสียทางการเงิน
โอนเงินไปยังบัญชีของผู้กระทำ
ข้อมูลรั่วไหล
ข้อมูลสำคัญของบริษัทหรือส่วนบุคคลถูกเปิดเผย
การยึดบัญชี
ผู้โจมตีเข้าถึงระบบหรือบัญชีการเงินได้
การขโมยตัวตน
ข้อมูลที่ถูกขโมยอาจถูกนำไปใช้หลอกลวงในอนาคต
วิธีป้องกันตัว
1. ตรวจสอบคำขอเร่งด่วน
หากมีการขอเงินหรือข้อมูลสำคัญ ให้หยุดและตรวจสอบก่อน เช่น:
โทรกลับเบอร์ทางการ
ส่งข้อความยืนยัน
สอบถามเพื่อนร่วมงานคนอื่น
2. ระวังสายที่กดดันทางอารมณ์
มิจฉาชีพมักสร้างความตื่นตระหนกเพื่อให้ตัดสินใจเร็ว
ให้หยุดคิดก่อนทุกครั้ง
3. ใช้ขั้นตอนตรวจสอบภายใน
สำหรับเรื่องการเงินหรือข้อมูลสำคัญ ให้ทำตามขั้นตอนบริษัทเสมอ
อย่าข้ามขั้นตอนความปลอดภัย แม้คำขอจะดูเร่งด่วน
4. จำกัดการเผยแพร่เสียง
ระวังสิ่งที่แชร์ออนไลน์
เสียง วิดีโอ หรือข้อความเสียง อาจถูกนำไปใช้ฝึก AI ได้
5. ให้ความรู้กับคนรอบตัว
แจ้งให้เพื่อนร่วมงานและครอบครัวรู้เกี่ยวกับภัยนี้
การรับรู้ช่วยลดความเสี่ยง
ตัวอย่างเหตุการณ์จริง (เพื่อประกอบความเข้าใจ)
พนักงานคนหนึ่งได้รับสายที่ฟังเหมือน CEO ของบริษัท
ผู้โทรกล่าวว่า:
“ผมอยู่ในการประชุมลับ ช่วยโอนเงินให้ผู้ขายรายนี้ด่วน”
พนักงานเชื่อและโอนเงินไป
ภายหลัง CEO ตัวจริงยืนยันว่าไม่เคยโทร
เสียงนั้นถูกสร้างด้วย AI
หากพบสิ่งน่าสงสัย
อย่าดำเนินการทันที
ตรวจสอบผ่านช่องทางทางการ
แจ้งทีม IT หรือทีมความปลอดภัย
หากรู้สึกผิดปกติ ให้ตรวจสอบซ้ำเสมอ
แจ้งเหตุ
หากพบสาย ข้อความ หรือคำขอที่น่าสงสัยและแอบอ้างเป็นคนในบริษัท กรุณาแจ้งทันที:
ระวังไว้ ปลอดภัยกว่า
การหลอกลวงด้วยเสียง AI กำลังเพิ่มขึ้นตามเทคโนโลยีที่พัฒนา
แต่ด้วยความรู้และการตรวจสอบง่าย ๆ เราสามารถลดความเสี่ยงและปกป้องตนเองและผู้อื่นได้
หากรู้สึกผิดปกติ
ให้หยุด ตรวจสอบ และรายงาน
เราสามารถช่วยกันสร้างสภาพแวดล้อมดิจิทัลที่ปลอดภัยได้