แฉ 3 กลโกงสุดล้ำ ใช้ AI หลอกทั้งภาพ-เสียงโกงเงิน พร้อมแนะวิธีป้องกัน

ตำรวจสอบสวน แนะนำวิธีป้องกัน กลโงจากมิจฉาชีพ หลังพบมีการใช้ปัญญาประดิษฐ์ หรือ AI เข้ามาหลอกลวง 3 รูปแบบ
ผู้สื่อข่าวรายงานว่า ตำรวจสอบสวนกลาง (CIB) เตือนออกแจ้งเตือน อาชญากรรมออนไลน์รูปแบบใหม่ “รวมมิจ รูปแบบมิจฉาชีพ AI” โดยระบุว่า ในปัจจุบันต้องเป็นที่ยอมรับกันว่า AI ได้เข้ามามีบทบาทในชีวิตของเรามาก มีเครื่องมือต่างๆ ที่ทำให้เราทำงานได้สะดวกขึ้น
แต่ในทางกลับกัน มิจฉาชีพก็เอามาใช้เป็นเครื่องมือในการกระทำความผิดด้วยเช่นกัน ซึ่งวันนี้ตำรวจสอบสวนกลาง (CIB) ได้รวบรวมรูปแบบของ AI ที่มิจฉาชีพนำมาใช้ ที่เริ่มจะพบเจอเยอะมากขึ้นมาฝากกันครับ
- Voice Cloning หรือ การใช้ AI ปลอมเสียง โดยจะเป็นการใช้ AI เลียนแบบเสียงของบุคคลให้มีความคล้ายคลึงกับบุคคล เพื่อใช้ในการหลอกเหยื่อให้คิดว่าได้คุยกับคนๆ นั้นจริงๆ ก่อนที่จะหลอกให้โอนเงินหรือทำอะไรอย่างอื่นต่อไป
- Deepfake หรือการใช้ AI ปลอมแปลงใบหน้าให้มีความคล้ายคลึงกับบุคคลต่างๆ เพื่อหลอกเชื่อว่าคนๆ นั้นได้ทำแบบนั้นจริงหรือปลอมเป็นคนใกล้ตัวเพื่อหลอกเหยื่อ ให้หลงเชื่อ
- Fake Business หรือ การใช้ Generative AI ต่างๆ ในการสร้างบทความ หรือสคริปต์วีดีโอต่างๆ เพื่อให้ดูเป็นมืออาชีพในด้านต่างๆ เพื่อหลอกเหยื่อให้มาร่วมลงทุน หรือ ใช้ร่วมกับ 2 ข้อด้านบน เพื่อความแนบเนียน
สำหรับวิธีป้องกันเบื้องต้นสามารถทำได้โดย
- สังเกตจังหวะการเว้นวรรคคำพูด น้ำเสียง เสียงวรรณยุกต์ ว่ามีจังหวะเว้นวรรคตอนแปลกๆ หรือไม่ มีน้ำเสียงราบเรียบเกินไปไหม มีจังหวะหายใจไหม หรือออกเสียงวรรณยุกต์สูงต่ำ ผิดเพี้ยนหรือไม่
- หากเป็นคลิปวีดีโอ ที่ต้องสงสัย ให้สังเกตการขยับปาก ของคนในคลิป ว่าเป็นธรรมชาติหรือไม่ มีสัดส่วนผิดเพี้ยน หรือสีผิว ดำๆ ด่างๆ หรือไม่ หรือ มีการกระพริบตาถี่หรือน้อยเกินไปหรือไม่
- หากเป็นการวีดีโอคอล แล้วคนที่โทรมาดูแปลกไปจากเดิม ให้ลองถามคำถามในเรื่องส่วนตัว ที่มีแต่คนในครอบครัวเท่านั้นที่รู้ดูก่อน หากปลายทางตอบไม่ได้ ให้สันนิษฐานไว้ก่อนว่าเป็นมิจฉาชีพ
- ก่อนโอนเงิน หรือ ทำธุรกรรมใดๆ ให้สังเกตชื่อบัญชีก่อนโอนทุกครั้งว่าตรงกันกับบัญชีที่เราจะโอนหรือไม่ หากโดนบอกให้จ่ายค่าสินค้าให้ก่อน ให้ลองปฏิเสธก่อน ห้ามโอนไปที่ร้านโดยตรง เพราะอาจเป็นการโอนเข้าบัญชีม้า หรือบัญชีมิจฉาชีพได้
- สุดท้ายมีสติเสมอ หรือ คิดให้รอบคอบก่อนที่จะตัดสินใจหลงเชื่อ หรือโอนเงิน
#มิจฉาชีพใช้เอไอ #กลโกงเอไอ #ปลอมเสียง #ปลอมใบหน้า #VoiceCloning #Deepfake #FakeBusiness #ข่าวจริง #Thefacts #facts #fact