เดือนมกราคม 2024 พนักงานการเงินของบริษัทวิศวกรรมระดับโลก Arup ที่ฮ่องกง ได้รับอีเมลจาก “CFO สำนักงานใหญ่ในอังกฤษ” ขอให้โอนเงินด่วน เขาสงสัย… แต่แล้วก็ได้เข้า video call ที่มีทั้ง CFO และเพื่อนร่วมงานหลายคนนั่งอยู่ตรงหน้า หน้าตาถูกต้อง เสียงถูกต้อง ท่าทางถูกต้อง
เขาโอนเงินไป 15 ครั้งรวม $25.6 ล้านดอลลาร์สหรัฐ (ราว 200 ล้านดอลลาร์ฮ่องกง) ภายในวันเดียว
ทุกคนในห้องประชุมออนไลน์นั้นเป็น Deepfake ทั้งหมด ไม่มีคนจริงแม้แต่คนเดียว
นี่ไม่ใช่เรื่องแต่ง แต่เป็นคดีจริงที่ Fortune รายงาน และจนถึงต้นปี 2025 ยังไม่มีการจับกุมผู้ต้องหาแม้แต่คนเดียว เงิน $25.6 ล้านดอลลาร์ยังไม่ได้คืน
ถ้าคุณคิดว่า “เรื่องแบบนี้ไม่เกิดกับคนธรรมดาหรอก” … ลองอ่านต่ออีกนิด
Deepfake คืออะไร?
Deepfake คือสื่อสังเคราะห์ (synthetic media) ที่ใช้ AI สร้างขึ้นมาเพื่อ “ปลอมแปลง” ใบหน้า เสียง หรือวิดีโอของบุคคลจริง ให้ดูหรือฟังสมจริงจนแยกไม่ออกด้วยตาเปล่า คำว่า Deepfake มาจากการรวมกันของ “deep learning” (การเรียนรู้เชิงลึก ซึ่งเป็นสาขาหนึ่งของ AI) กับ “fake” (ปลอม)
สิ่งที่ทำให้ Deepfake ในปี 2026 น่ากลัวกว่าเมื่อ 2-3 ปีก่อนมาก ก็คือ คุณภาพ และ ความเร็ว ในการสร้าง เมื่อก่อนต้องใช้เวลาหลายวันกับอุปกรณ์คอมพิวเตอร์ราคาแพง ตอนนี้แค่มีมือถือกับอินเทอร์เน็ตก็ทำได้ภายในไม่กี่นาที และยิ่ง AI Agent พัฒนาขึ้นเรื่อยๆ ความสามารถในการสร้างสื่อปลอมก็ยิ่งซับซ้อนขึ้นตาม
เทคโนโลยีเบื้องหลัง Deepfake ทำงานยังไง?
เทคโนโลยีหลักที่อยู่เบื้องหลัง Deepfake คือ GAN (Generative Adversarial Network) หรือ “เครือข่ายปฏิปักษ์เชิงสร้างสรรค์” ซึ่งทำงานโดยมี AI สองตัวแข่งกัน ตัวหนึ่งพยายามสร้างภาพปลอม อีกตัวหนึ่งพยายามจับผิด ยิ่งแข่งกันนานเท่าไหร่ ภาพที่ได้ก็ยิ่งสมจริงมากขึ้นเท่านั้น
แต่ GAN ไม่ใช่ตัวเดียวที่ใช้กัน ปัจจุบันมีเทคนิคใหม่ๆ อีกหลายตัว
เทคนิคหลักที่ใช้สร้าง Deepfake
Face Swap (สลับหน้า) คือการเอาใบหน้าของคนหนึ่งไปวางทับบนร่างกายของอีกคน ด้วยการ train โมเดลจากรูปภาพหลายร้อยรูป AI จะเรียนรู้โครงสร้างใบหน้า แล้วสร้างภาพใหม่ที่เคลื่อนไหวไปตามท่าทางของร่างกายเดิม
Face Reenactment (บังคับหน้า) ใช้วิดีโอของคนหนึ่งเป็น “ต้นแบบการเคลื่อนไหว” แล้วให้ AI บังคับใบหน้าของอีกคนให้เคลื่อนไหวตาม ทำให้สามารถสร้างวิดีโอที่ “เป้าหมาย” พูดหรือแสดงสีหน้าตามที่ต้องการ
Diffusion Models (โมเดลแพร่กระจาย) เป็นเทคนิคใหม่ที่ให้ผลลัพธ์คุณภาพสูงกว่า GAN ในหลายกรณี ทำงานโดยค่อยๆ เพิ่ม noise (สัญญาณรบกวน) ลงในภาพจริง แล้วฝึก AI ให้เรียนรู้การลบ noise ออก จนสามารถ “สร้าง” ภาพใหม่จากศูนย์ได้ เทคนิคนี้ถูกนำมาใช้ทั้งสร้างภาพนิ่งและวิดีโอ
Voice Cloning: เสียง 3 วินาที เท่ากับ AI จำลองตัวตนคุณได้
ถ้าใครคิดว่า Deepfake เกี่ยวกับ “ภาพ” เท่านั้น… ต้องเปลี่ยนความคิดเลย
Fortune รายงานว่านักวิจัยด้าน Deepfake ระบุว่า voice cloning (การโคลนเสียง) ได้ข้ามผ่านสิ่งที่เรียกว่า “indistinguishable threshold” (เกณฑ์ที่แยกไม่ออก) ไปแล้ว แค่เสียงพูดของคุณ 3 วินาที ก็เพียงพอให้ AI สร้างเสียงโคลนที่ตรง 85% กับเสียงต้นฉบับ ตามการวิจัยของ McAfee
และ 85% นี่คือแค่ข้อมูลจาก 3 วินาทีนะ ถ้ามีตัวอย่างเสียงมากกว่านั้น (ซึ่งหาได้ง่ายมากจากคลิปใน TikTok, Instagram Reels หรือแม้แต่ voicemail) ความแม่นยำจะพุ่งขึ้นไปอีก รวมทั้งน้ำเสียง จังหวะการพูด การหยุดหายใจ ทุกอย่างจำลองได้หมด
“A few seconds of audio now suffice to generate a convincing clone, complete with natural intonation, rhythm, emphasis, emotion, pauses and breathing noise. The perceptual tells that once gave away synthetic voices have largely disappeared.”
นักวิจัยด้าน deepfake อ้างใน Fortune, ธันวาคม 2025
ที่น่ากลัวกว่านั้นคือ ผลการวิจัยจาก iProov ในปี 2025 พบว่ามีเพียง 0.1% ของผู้เข้าร่วมทดสอบเท่านั้นที่สามารถแยกแยะสื่อปลอมออกจากสื่อจริงได้ถูกต้องทุกชิ้น
คดีจริงที่เกิดขึ้นแล้ว: จาก $25.6 ล้านดอลลาร์ถึง 600,000 บาท
Deepfake ไม่ใช่แค่เรื่องในหนัง sci-fi อีกต่อไป มันเกิดขึ้นจริง สร้างความเสียหายจริง และเหยื่อก็เป็นคนธรรมดาเหมือนเราทุกคน
กรณีใหญ่ระดับโลก: Arup $25.6 ล้านดอลลาร์
อย่างที่เล่าไปตอนเปิดบทความ CNN รายงานว่าพนักงานการเงินของ Arup ที่ฮ่องกงถูกหลอกด้วย video call ปลอมที่สร้างด้วย Deepfake ทั้งหมด ทั้ง CFO และเพื่อนร่วมงานที่ปรากฏบนหน้าจอล้วนเป็น AI สร้างขึ้น เขาโอนเงิน 15 ครั้งรวม $25.6 ล้านดอลลาร์สหรัฐภายในวันเดียว Arup ยืนยันเหตุการณ์ในเดือนพฤษภาคม 2024 และระบุว่าฐานะการเงินของบริษัทไม่ได้รับผลกระทบ แต่เงินที่สูญเสียไปยังไม่ได้คืน
กรณีในไทย: ตำรวจปลอม 600,000 บาท
ในประเทศไทยเองก็มีเคสคล้ายกัน Thai PBS รายงานว่ามิจฉาชีพใช้ AI สร้างวิดีโอ Deepfake ปลอมตัวเป็นเจ้าหน้าที่ตำรวจ เพื่อข่มขู่เหยื่อว่าบัญชีธนาคารเกี่ยวข้องกับการฟอกเงิน สร้างความเสียหาย 600,000 บาท
และนี่เป็นแค่ยอดภูเขาน้ำแข็ง ตามข้อมูลจาก ศูนย์ AOC 1441 (Anti Online Scam Operation Centre) ตั้งแต่มกราคมถึงพฤศจิกายน 2025 ประเทศไทยมีเรื่องร้องเรียนอาชญากรรมไซเบอร์ราว 887,000 เรื่อง มูลค่าความเสียหายรวมกว่า 89,000 ล้านบาท เพิ่มขึ้น 45% จากปี 2024
| คดี | ประเทศ | เทคนิค Deepfake | ความเสียหาย |
|---|---|---|---|
| Arup (ม.ค. 2024) | ฮ่องกง | Video call ปลอม CFO + เพื่อนร่วมงานหลายคน | $25.6 ล้าน (ราว 900 ล้านบาท) |
| ตำรวจปลอมไทย | ไทย | วิดีโอ Deepfake เจ้าหน้าที่ตำรวจข่มขู่เหยื่อ | 600,000 บาท |
| Celebrity endorsement scams | ไทย/สหรัฐ | วิดีโอปลอมคนดังโปรโมตสินค้า | ไม่ระบุยอดรวม |
| ค้าปลีกสหรัฐ (2025) | สหรัฐ | AI voice scam โทรหลอกร้านค้า | >1,000 สายต่อวันต่อร้าน |
ตัวเลขที่น่าตกใจในปี 2026
ถ้าดูตัวเลขจะเห็นชัดว่า Deepfake กำลังระเบิดแบบ exponential (เติบโตแบบทวีคูณ)
บริษัทด้านความปลอดภัยไซเบอร์ DeepStrike ประเมินว่า Deepfake ออนไลน์เพิ่มขึ้นจากราว 500,000 ชิ้นในปี 2023 เป็น 8 ล้านชิ้นในปี 2025 อัตราการเติบโตเกือบ 900% ต่อปี
ด้านความเสียหายทางการเงิน ScamWatch HQ ระบุว่าเฉพาะไตรมาสแรกของปี 2025 ในอเมริกาเหนือเพียงภูมิภาคเดียว ความเสียหายจากการฉ้อโกงด้วย Deepfake สูงกว่า $200 ล้าน
ขณะที่ Keepnet Labs รายงานว่าองค์กรต่างๆ ถูกโจมตีด้วย Deepfake เฉลี่ย ทุก 5 นาที
ฝั่งตลาดเครื่องมือตรวจจับ Deepfake ก็เติบโตตามไปด้วย P&S Intelligence ประเมินว่าตลาด Deepfake AI มีมูลค่า $564 ล้านในปี 2024 และจะพุ่งไปถึง $5,130 ล้านภายในปี 2030 อัตราการเติบโตเฉลี่ย (CAGR) 44.5% ต่อปี
| ตัวชี้วัด | ตัวเลข | แหล่งที่มา |
|---|---|---|
| Deepfake ออนไลน์ (2025) | ~8 ล้านชิ้น (จาก 500,000 ในปี 2023) | DeepStrike |
| ความเสียหาย Q1/2025 (อเมริกาเหนือ) | >$200 ล้าน | ScamWatch HQ |
| ความถี่การโจมตีองค์กร | ทุก 5 นาที | Keepnet Labs |
| ตลาด Deepfake AI (2024) | $564 ล้าน | P&S Intelligence |
| ตลาด Deepfake AI (2030, คาดการณ์) | $5,130 ล้าน (CAGR 44.5%) | P&S Intelligence |
| เสียง 3 วินาที = โคลนได้ 85% | 85% voice match | McAfee |
| อาชญากรรมไซเบอร์ไทย (ม.ค.-พ.ย. 2025) | 887,000 เรื่อง / 89,000 ล้านบาท | AOC 1441 |
ตรวจจับ Deepfake ได้ไหม? AI vs มนุษย์
คำตอบสั้นๆ คือ มนุษย์ตรวจจับ Deepfake ได้แย่มาก แต่ AI ก็ยังไม่สมบูรณ์แบบ มนุษย์ตรวจจับเสียง Deepfake ได้แม่นยำเพียงประมาณ 48% ซึ่งแย่กว่าโยนเหรียญเสี่ยงทายด้วยซ้ำ
ฝั่ง AI ทำได้ดีกว่ามากในห้องทดลอง Keepnet Labs ระบุว่าเครื่องมือตรวจจับ Deepfake ระดับ research มีความแม่นยำ 94-96% ในสภาพแวดล้อมที่ควบคุม แต่พออยู่ในโลกจริง ตัวเลขตกลงมาเหลือ 45-50% เพราะ Deepfake ที่หลุดออกมาถูกบีบอัด ปรับแสง ครอปภาพ ซึ่งทำลาย artifacts (ร่องรอยดิจิทัล) ที่ AI ใช้ตรวจจับ
“Humans detect deepfake audio at approximately 48% accuracy, worse than a coin flip.”
จากการวิจัย อ้างใน DeepStrike, 2025
เครื่องมือตรวจจับ Deepfake ที่น่าจับตา
Sensity AI เป็นหนึ่งในบริษัทแนวหน้าด้านการตรวจจับ Deepfake โดยเฉพาะ ให้บริการทั้งภาครัฐและเอกชน ใช้ AI วิเคราะห์วิดีโอและภาพแบบ real-time
Modulate (ระบบ Velma) มุ่งเน้นการตรวจจับเสียง Deepfake โดยเฉพาะ เหมาะกับ call center และระบบยืนยันตัวตนผ่านเสียง
YouTube Likeness Detection ในปี 2025 YouTube เริ่มทดสอบระบบตรวจจับว่าวิดีโอใดใช้ใบหน้าหรือเสียงของบุคคลอื่นโดยไม่ได้รับอนุญาต
C2PA Content Credentials: “ฉลากโภชนาการ” ของสื่อดิจิทัล
C2PA (Coalition for Content Provenance and Authenticity) คือมาตรฐานเปิดที่พัฒนาร่วมกันโดย กลุ่มบริษัทเทคโนโลยีและสื่อระดับโลก รวมถึง Adobe, Microsoft, BBC เพื่อรับมือกับปัญหา Deepfake และข้อมูลเท็จ โดยแนวคิดหลักคือ แทนที่จะพยายาม “จับ” ของปลอม ให้ “ติดป้าย” ของจริงแทน
มาตรฐาน C2PA ทำงานโดยฝัง metadata (ข้อมูลเบื้องหลัง) ที่ยากต่อการปลอมแปลงลงไปในไฟล์ภาพ วิดีโอ หรือเสียง ระบุว่าใครสร้าง สร้างเมื่อไหร่ ใช้เครื่องมืออะไร AI มีส่วนเกี่ยวข้องหรือไม่ เปรียบเทียบได้เหมือน “ฉลากโภชนาการ” ของสื่อดิจิทัล
ด้านฮาร์ดแวร์ Leica เป็นแบรนด์แรกที่ส่งกล้องรองรับ C2PA ออกมาตั้งแต่ปี 2023 ตามด้วย Samsung Galaxy S25 ที่สามารถเซ็นรับรองภาพถ่ายได้ตั้งแต่ขั้นตอนการถ่าย ทำให้ C2PA เริ่มเข้าถึงผู้ใช้ทั่วไปในระดับมือถือ
ส่วน OpenAI ประกาศเมื่อเดือนพฤศจิกายน 2025 ว่าภาพและวิดีโอที่สร้างโดย OpenAI จะติด Content Credentials อัตโนมัติ
ป้องกันตัวยังไง? คู่มือสำหรับคนธรรมดาและองค์กร
รู้แล้วว่า Deepfake น่ากลัว คำถามต่อมาคือ แล้วเราจะป้องกันตัวยังไง? มีหลายระดับตั้งแต่สิ่งที่ทำได้ทันทีในชีวิตประจำวัน ไปจนถึงระดับองค์กร
สำหรับคนธรรมดา
ตั้ง “รหัสลับ” กับคนในครอบครัว ง่ายที่สุดและได้ผลที่สุด ตกลงคำหรือวลีที่รู้กันแค่ในครอบครัว เวลาได้รับโทรศัพท์หรือ video call ขอเงินด่วน ให้ถาม “รหัส” ก่อน ถ้าตอบไม่ได้ แม้เสียงจะเหมือนจริงแค่ไหน อย่าโอน
ตั้งสติก่อนตอบสนอง Deepfake scam เกือบทุกครั้งจะสร้าง “ความเร่งด่วน” ไม่ว่าจะเป็น “โอนเงินตอนนี้เลย”, “ถ้าไม่ทำจะติดคุก”, “อุบัติเหตุต้องการเงินด่วน” เวลาเจอแบบนี้ ให้วางสาย แล้วโทรกลับไปหาคนนั้นด้วยเบอร์ที่คุณมีอยู่เดิม
ลดรอยเท้าดิจิทัลของเสียง ระวังการโพสต์คลิปวิดีโอที่มีเสียงพูดชัดๆ ในโซเชียลมีเดีย โดยเฉพาะคลิปยาวๆ ที่มีเสียงต่อเนื่อง เพราะนั่นคือ “วัตถุดิบ” ชั้นดีสำหรับ voice cloning
เปิด 2FA (Two-Factor Authentication) ทุกบัญชี แม้มิจฉาชีพจะโคลนเสียงคุณได้ แต่ถ้าคุณมี 2FA พวกเขาก็ยังเข้าบัญชีจริงๆ ของคุณไม่ได้
สำหรับองค์กร
ใช้ Multi-Channel Verification (การยืนยันหลายช่องทาง) ไม่อนุมัติธุรกรรมขนาดใหญ่ผ่านช่องทางเดียว ถ้าได้รับคำสั่งโอนเงินผ่าน video call ให้ยืนยันผ่านช่องทางอื่นเพิ่ม เช่น โทรศัพท์ตรง, อีเมลเข้ารหัส หรือ Slack ภายใน นี่คือบทเรียนจากกรณี Arup
ลงทุนใน Deepfake Detection Tools เครื่องมืออย่าง Sensity AI หรือ Modulate สามารถ integrate เข้ากับระบบ video conferencing และ call center ขององค์กร เพื่อแจ้งเตือนเมื่อตรวจพบสัญญาณ Deepfake (อ่านเพิ่มเรื่องเทคโนโลยี AI ที่เปลี่ยนโลกธุรกิจได้ในบทความ AI นักวิทยาศาสตร์คืออะไร?)
จัดอบรมพนักงานเป็นประจำ Deepfake scam ทำงานได้เพราะ “คน” เป็นจุดอ่อน ไม่ใช่ระบบ การจัดอบรมให้พนักงานรู้จัก Deepfake และรู้วิธีรับมือเป็นการลงทุนที่คุ้มค่าที่สุด
กฎหมาย Deepfake ทั่วโลกและไทย
เทคโนโลยีวิ่งเร็วกว่ากฎหมายเสมอ แต่ในปี 2025-2026 เรากำลังเห็นกฎหมายเริ่มไล่ตามทัน ทั้งในระดับสหรัฐอเมริกา สหภาพยุโรป และไทย
สหรัฐอเมริกา: TAKE IT DOWN Act
เมื่อ 19 พฤษภาคม 2025 ประธานาธิบดี Trump ลงนามใน TAKE IT DOWN Act (Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act) ซึ่งเป็นกฎหมายระดับ federal ฉบับแรกของสหรัฐที่เอาผิดเรื่อง Deepfake โดยเฉพาะ
กฎหมายนี้ห้ามเผยแพร่ภาพ Deepfake ที่มีลักษณะ intimate (เปิดเผยร่างกาย) โดยไม่ได้รับความยินยอม มีโทษทางอาญา และบังคับให้แพลตฟอร์มออนไลน์ต้องลบ Deepfake ภายใน 48 ชั่วโมงหลังได้รับแจ้ง โดยแพลตฟอร์มมีเวลาจนถึง 19 พฤษภาคม 2026 ในการจัดทำระบบรับแจ้งและลบ
สหภาพยุโรป: EU AI Act Article 50
Article 50 ของ EU AI Act กำหนดให้ผู้สร้างและผู้ใช้ระบบ AI ต้อง “เปิดเผย” อย่างชัดเจนเมื่อเนื้อหาถูกสร้างหรือดัดแปลงด้วย AI รวมถึง Deepfake ทุกประเภท แม้จะเป็นเนื้อหาที่ถูกกฎหมายก็ต้องติดป้ายกำกับ (ยกเว้นงานศิลปะหรือล้อเลียนที่ต้องแจ้งแบบ minimal)
ข้อบังคับนี้จะ มีผลบังคับใช้ 2 สิงหาคม 2026 โดย European Commission ได้เผยแพร่ ร่าง Code of Practice ฉบับแรกเมื่อธันวาคม 2025 ร่างฉบับถัดไปคาดว่าจะออกในเดือนมีนาคม 2026 และฉบับสุดท้ายในเดือนมิถุนายน 2026
ไทย: ร่าง พ.ร.บ. AI
ประเทศไทยกำลังร่างกฎหมาย AI ฉบับแรก Norton Rose Fulbright รายงานว่าร่างกฎหมายนี้ใช้โครงสร้างคล้าย EU AI Act โดยจัดระดับความเสี่ยงของ AI และให้ Deepfake ที่ใช้เพื่อการเมืองหรือสื่อลามกอยู่ในกลุ่มเสี่ยงสูง
ร่างกฎหมายยังระบุถึงมาตรการทางเทคนิคในการติดตามและใส่ watermark (ลายน้ำดิจิทัล) ในสื่อสังเคราะห์ Tilleke & Gibbins ระบุว่า ETDA (สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์) ได้เปิดรับฟังความคิดเห็นสาธารณะเมื่อกลางปี 2025 และกำลังปรับปรุงร่างอยู่ คาดว่าจะมีการรับฟังเพิ่มเติมอีกรอบก่อนเข้าสู่กระบวนการพิจารณาของสภา
| กฎหมาย | ประเทศ/ภูมิภาค | ขอบเขต Deepfake | สถานะ |
|---|---|---|---|
| TAKE IT DOWN Act | สหรัฐอเมริกา | Deepfake intimate images, มีโทษทางอาญา, ลบใน 48 ชม. | ลงนามแล้ว พ.ค. 2025 |
| EU AI Act Article 50 | สหภาพยุโรป | ติดป้าย AI-generated ทุกประเภท, machine-readable marking | บังคับใช้ ส.ค. 2026 |
| ร่าง พ.ร.บ. AI | ไทย | Deepfake การเมือง/ลามก = ความเสี่ยงสูง, watermark สื่อสังเคราะห์ | อยู่ระหว่างร่าง (2025-2026) |
| C2PA Standard | สากล (ภาคเอกชน) | ฝัง metadata ยืนยันที่มาของสื่อดิจิทัล | ใช้งานแล้ว, กำลังขยาย |
แล้วเราควรทำอะไรตอนนี้?
Deepfake เป็นหนึ่งในภัยคุกคามที่เติบโตเร็วที่สุดของยุค AI แต่ข่าวดีคือเราไม่ได้ไร้ทางสู้
ถ้าคุณเป็นคนทั่วไป สิ่งที่ทำได้ทันทีวันนี้คือ นั่งคุยกับคนในครอบครัวแล้วตั้ง “รหัสลับ” ร่วมกัน เปิด 2FA ทุกบัญชี และจำไว้เสมอว่า ไม่ว่าเสียงหรือหน้าตาจะเหมือนจริงแค่ไหน ถ้ามีคนขอเงินด่วน, ให้วางสายแล้วโทรกลับหาคนนั้นเอง
ถ้าคุณเป็นเจ้าของธุรกิจ ลองประเมินดูว่ากระบวนการอนุมัติธุรกรรมของบริษัทมีจุดอ่อนตรงไหน ถ้ายังพึ่ง video call หรือโทรศัพท์เป็นช่องทางเดียวในการอนุมัติ ถึงเวลาเพิ่ม multi-channel verification แล้ว และอย่าลืมจัดอบรมพนักงานเรื่อง Deepfake awareness
ถ้าคุณทำงานด้านเทค ลองศึกษาเรื่อง C2PA Content Credentials ว่าจะ integrate เข้ากับ product ของคุณได้อย่างไร และติดตามพัฒนาการของ EU AI Act Article 50 ที่จะบังคับใช้เดือนสิงหาคมนี้ เพราะมันจะเป็นมาตรฐานที่ส่งผลกระทบทั่วโลก
เรื่อง Deepfake เป็นเรื่องที่ทุกคนต้องรู้ ไม่ใช่แค่คนทำเทค เพราะตอนนี้เทคโนโลยีนี้ “เข้าถึงง่าย” พอที่มิจฉาชีพจะใช้โทรหาครอบครัวคุณแล้วพูดด้วยเสียงของคุณได้เลยครับ
ป้องกันไว้ดีกว่าแก้
แหล่งอ้างอิง
- Arup revealed as victim of $25 million deepfake scam – CNN (2024)
- A deepfake ‘CFO’ tricked British design firm Arup – Fortune (2024)
- 2026 will be the year you get fooled by a deepfake – Fortune (2025)
- Deepfake Statistics 2025 – DeepStrike (2025)
- Deepfake Statistics & Trends 2026 – Keepnet Labs (2026)
- The $200 Million Deepfake Disaster – ScamWatch HQ (2025)
- The AI Voice Scam Epidemic – Unbox Future (2026)
- Deepfake AI Market Size & 2030 Growth Trends – P&S Intelligence
- AI Clone & Deepfake: Beware of 2026 New Scam Tactics – Thai PBS (2026)
- DE Ministry warns of four scam trends to watch in 2026 – Nation Thailand (2026)
- President Trump Signs TAKE IT DOWN Act – The White House (2025)
- Take It Down Act – Skadden (2025)
- Article 50: Transparency Obligations – EU AI Act
- Code of Practice on AI-generated content – European Commission
- Thailand’s draft AI law – Norton Rose Fulbright
- Thailand’s Draft AI Regulation – Tilleke & Gibbins
- Content Credentials White Paper – C2PA (2025)
- What Is C2PA? – HiSolace (2025)
- How AI Voice Cloning Works – SoftwareSeni
- AI scams in 2026 – Vectra AI (2026)
- Deepfake AI Scams in Thailand – Siam Legal