هاكرز يستخدمون الذكاء الاصطناعي لخداع ضحاياهم.. احذروا
كشف تقرير جديد أن بعض الهاكرز قد ارتقوا بعمليات الخداع إلى مستوى جديد تمامًا من خلال نشر تقنية ذكاء اصطناعي قادرة على استنساخ الأصوات، مما يزيد من احتمالية خداع الضحايا.
ولإطلاق هذه النسخة الأكثر تعقيدًا من عملية الاحتيال، يطلب الهاكرز "عينة صوتية ببضع جمل فقط"، ويتم بعد ذلك تشغيل العينة من خلال واحدة من العديد من الأدوات المتوفرة على الإنترنت، والتي تستخدم الصوت الأصلي لإنشاء نسخة طبق الأصل، يمكن توجيهها لقول ما تريد ببساطة عن طريق كتابة العبارات المطلوبة.
وتشير البيانات الواردة من لجنة التجارة الفيدرالية الأمريكية إلى أنه في عام 2022 وحده، كان هناك أكثر من 36 ألف تقرير عن عمليات الاحتيال، مع حدوث أكثر من 5 آلاف منها عبر الهاتف. وبلغت الخسائر المبلغ عنها 11 مليون دولار. والمثير للقلق هو أنه مع زيادة فعالية أدوات الذكاء الاصطناعي وإتاحتها على نطاق واسع، فإن المزيد من الأشخاص سيقعون ضحية لعمليات الاحتيال في الأشهر والسنوات المقبلة.
ومع ذلك، لا تزال عملية الاحتيال تتطلب بعض التخطيط، حيث يحتاج الهاكرز إلى العثور على عينة صوتية من صوت الضحية، بالإضافة إلى رقم هاتفه. ويمكن العثور على عينات صوتية، على سبيل المثال، عبر الإنترنت على مواقع شهيرة مثل تيك توك ويوتيوب، بينما يمكن أيضًا العثور على أرقام الهواتف على الويب.
ويمكن أن تتخذ عملية الاحتيال عدة أشكال أيضًا. وكمثال على ذلك، تظاهر شخص ما بأنه محام، وقام بالاتصال بزوجين مسنين، وأخبرهما أن حفيدهما كان محتجزًا بسبب جريمة مزعومة وأنهما بحاجة إلى دفع أكثر من 15 ألف دولار لتغطية التكاليف القانونية. ثم تظاهر المحامي المزيف بتسليم الهاتف لحفيدهما، واستخدم صوته المستنسخ لطلب المساعدة في دفع الرسوم، وهو ما فعلاه دون أن يشكا في الأمر.
ويدعو البعض إلى تحميل الشركات التي تصنع تكنولوجيا الذكاء الاصطناعي التي تستنسخ الأصوات المسؤولية عن مثل هذه الجرائم. ولكن قبل حدوث ذلك، يبدو من المؤكد أن كثيرين آخرين سيخسرون أموالهم من خلال هذا النوع من عمليات الاحتيال، حسب موقع ديجيتال تريندز.