วันพุธที่ 19 พฤศจิกายน 2568
19 พ.ย. 2568 01:01 | 29 view
@natcha
จากเหยื่อ...สู่ผู้ร้าย! DSI เตือนภัย AI หลอก AI หรือการใช้เทคโนโลยี Deepfake สร้างภาพเคลื่อนไหวใบหน้าของเหยื่อเพื่อหลอกระบบธนาคาร 5 ขั้นตอนที่คนร้ายใช้ในการโจมตี
1. ติดต่อล่อลวง
2. หลอกขอข้อมูล
3. สร้างภาพ AI (Deepfake)
4. นําภาพ/วิดีโอ AI หลอกไปลองระบบ KYC
5. หลอกลวงระบบจนสําเร็จ
ห้ามส่งภาพหน้าตรง หรือวิดีโอใบหน้า เพื่อยืนยันตัวตนให้ใครที่ไม่น่าเชื่อถือเด็ดขาด!
#DSI #กรมสอบสวนคดีพิเศษ #ภัยไซเบอร์ #KYC #สแกมเมอร์ #TV5HD #ช่อง5
ข่าว
19 พ.ย. 2568 13:26 27 views
ข่าว
19 พ.ย. 2568 12:48 57 views
ข่าว
19 พ.ย. 2568 12:32 33 views
ข่าว
19 พ.ย. 2568 12:28 50 views
ข่าว
19 พ.ย. 2568 12:01 36 views
ข่าว
19 พ.ย. 2568 11:33 57 views
ข่าว
19 พ.ย. 2568 11:27 91 views
ข่าว
19 พ.ย. 2568 11:17 65 views
ข่าว
19 พ.ย. 2568 10:56 66 views
ข่าว
19 พ.ย. 2568 10:34 106 views
ข่าว
19 พ.ย. 2568 10:25 124 views
ข่าว
19 พ.ย. 2568 10:02 378 views
ข่าว
19 พ.ย. 2568 09:59 97 views
ข่าว
19 พ.ย. 2568 09:49 64 views
ข่าว
19 พ.ย. 2568 09:40 96 views
ข่าว
19 พ.ย. 2568 09:34 103 views