شفق نيوز/ أحدثت تقنيات الذكاء الاصطناعي التوليدي، طفرة كبيرة في تطوير الهجمات السيبرانية ضد مستخدمي الإنترنت، بدايةً من رسائل البريد الإلكتروني المزيفة، مبروراً بانتحال الصفة اعتماداً على المحادثات الهاتفية المزيفة، ومقاطع الفيديو المحررة، إلى المكالمات الآنية سواء بالصوت أو الفيديو.
كل هذه الخدع أصبح من السهل اختلاقها لتظهر وكأنها واقعاً، اعتماداً على تقنيات الذكاء الاصطناعي، ومن المتوقع أن يصبح الأمر أصعب في اكتشافه في العام الجديد.
وأفادت مؤسسة "سلاش نيكست"، بشأن إحصائيات الاصطياد الإلكتروني في 2023، بأن هجمات التصيد الإلكتروني زادت بنسبة 1265% بدايةً من الربع الأخير من عام 2022، بالتزامن مع بداية وصول تقنية الذكاء الاصطناعي التوليدي، التي بدأ نجمها يسطع مع إطلاق منصة ChatGPT لجميع مستخدمي الإنترنت.
أساليب مختلفة
مع تنوع قدرات منصات الذكاء الاصطناعي على التعامل مع أشكال متعددة من البيانات من صور وفيديوهات ونصوص وصوت، نجح المحتالون في توظيف تلك الأدوات بأساليب فعالة لتنفيذ هجماتهم على الضحايا، فمثلاً، تعتبر رسائل الاحتيال الإلكتروني البريدية واحدة من أكثر وسائل استهداف مستخدمي الإنترنت بالهجمات الاحتيالية، لكن عادةً ما كان يعاني المحتالون من غير متحدثي الإنجليزية، خاصة الصينيين والروس، من صعوبة كتابة الرسائل لاستهداف الضحايا في الولايات المتحدة وبريطانيا ودول أوروبا، لكن مع تطور أدوات الذكاء الاصطناعي وتسارع وتيرة إجادة النماذج اللغوية الضخمة LLM لكتابة أنواع مختلفة من المحتوى بلغات العالم، ربما يصبح تأثير الهجمات البريدية الخبيثة أكثر فاعلية، بعد أن يتفادى المخترقون الوقوع في الأخطاء الإملائية داخل رسائلهم، والتي كانت واحدة من وسائل كشف زيف الرسائل.
وتوقعت تقارير أن يصبح الأمر أكثر سهولة لتطوير هجمات تستهدف قطاعاً من قطاعات الأعمال، أو شركة بعينها، من خلال تدريب نماذج ذكاء اصطناعي على البيانات المتاحة عن شركة أو قطاع ما، بحيث يصبح النموذج الذكي محترفاً في كتابة أي محتوى نصي يعتمد على نفس المصطلحات الشائعة بين العاملين داخل هذا القطاع أو تلك الشركة، ما يجعل كشف تزييف رسائل التصيد أمراً عسيراً.
وأفادت دراسة أجرتها مؤسسة SoSafe للتوعية بأمن المعلومات في أبريل الماضي، بأن قرابة 80% من عينة الدراسة فتحوا الرسائل الاحتيالية المنشأة بالذكاء الاصطناعي، و21% من العينة ضغطوا على الروابط الخبيثة داخل الرسائل.
محادثات فيديو مزيفة
واحترف المحتالون استخدام الذكاء الاصطناعي في تزييف الصور والمقاطع المصورة، فأصبح من السهل التعديل في الصور الحقيقية وتزييف بعض تفاصيلها، أو كذلك إنشاء صور مزيفة بالكامل من خلال منصات الذكاء الاصطناعي ذات الإمكانيات المتطورة، والتي تقدم بعضها خدماتها بشكل مجاني للمستخدمين.
وتوقع خبراء أمن معلومات ألا تتوقف الأمور في 2024 عند تزييف الصور، خاصة أن عام 2023 شهد ارتفاعاً كبيراً في إنشاء مقاطع الفيديو المزيفة لشخصيات عامة ومشاهير وسياسيين، ورصدت شركة الخدمات الأمنية OnFido، زيادة الفيديوهات المزيفة بتقنية "التزييف العميق Deep Fake" بنسبة 3000%.
وأفاد تقرير حديث بأن تكلفة تزييف المقاطع المصورة بحرفية فائقة أصبحت أقل من 100 دولار.
ويرى الخبراء أن عملية تزييف المحتوى البصري أصبحت أكثر سهولة، بل وأكثر إقناعاً، ولم تعد محادثات الفيديو دليلاً كافياً على أن المكالمة مع الشخص المقصود، فمن الممكن أن يكون مجرد نسخة رقمية مزيفة يتحكم فيها أحد المحتالين، باستخدام منصات الذكاء الاصطناعي لجعل حركات النسخة المزيفة أكثر واقعية، بل ويستخدم بعض المنصات لإنشاء نسخة أكثر طبيعية من صوت الشخص المستهدف، وبالتالي تكون محادثة الفيديو مقنعة.
الاعتماد على تزييف الأصوات ليس تقنية جديدة، ففي دراسة أجرتها مؤسسة Kroll، اتضح أن عام 2022 شهد ارتفاعاً قياسياً في عدد المحادثات الصوتية الاحتيالية بنسبة 54%، لذلك فإن الخبراء يتوقعون استمرار الاحتيال الصوتي Vishing، وهو مصطلح ناتج عن دمج كلمتي Voice وPhishing، في تهديد الأمن الإلكتروني للمستخدمين، بالتزامن مع تطور تقنيات الذكاء الاصطناعي.
لا تصدق أذنيك
وفي أبريل 2023، وضعت جوانا ستيرن، محررة التقنية بصحيفة "وول ستريت جورنال"، تقنيات بعض الخدمات لصناعة نسخ رقمية من أصوات البشر، للتجربة، وكان على رأسها خدمة Eleven Labs الشهيرة، وخرجت نسخة صوت جوانا واقعية كفاية لتخدع بها أختها، وكذلك إيفان شبيجل، مؤسس ومدير شركة "سناب".
وتوقع الخبراء أن تشهد هجمات الاحتيال الصوتي عبر المحادثات الهاتفية طفرة كبرى خلال العام الجديد، موضحين أن هذه الهجمات تحتاج إلى استخدام نماذج ذكاء اصطناعي قادرة على فهم حديث البشر في الوقت الفعلي، وتحليل الكلام المنطوق، ثم بدء إنتاج ردود طبيعية في صياغتها وطريقة ترتيب الكلمات والعبارات بشكل أقرب للبشر، وهو ما تحقق بالفعل في 2023، مع التطور السريع للنماذج اللغوية الضخمة LLM
وأضافوا أن المحتالين يحتاجون عند تنفيذ عمليات احتيال عبر المكالمات الهاتفية، إلى نماذج ذكية قادرة على خلق نموذج رقمي من صوت الشخص المستهدف تقليد صوته، ليكون مقنعاً لأقاربه وأصدقائه.
وتطورت هذه النماذج بشكل كبير في التعامل مع أصوات البشر، إذ كشفت العديد من الشركات، مثل "ميتا" عن نماذج متاحة للجميع على الإنترنت، بإمكانها إجراء ترجمة صوتية لأي مقاطع صوتية، وشهد 2023 العديد من الوقائع بالفعل، إذ تعرض صانع المحتوى الشهير جو روجان لعملية انتحال لصفته من جانب شركة مغمورة استغلت صوته بتقنيات الذكاء الاصطناعي، للترويج لمنتج لم يناقشه إطلاقها من قبل.
ولذلك توقع الخبراء أن تظهر تقنيات جديدة تحاول تأكيد هوية الأشخاص في التواصل الرقمي، بعيداً عن محادثات الفيديو أو الصوت، تجنباً للوقوع ضحايا لهجمات المحتالين، مطالبين المستخدمين وقطاع الأعمال بالوعي والحذر اللازم لمواجهة الهجمات.