شفق نيوز- متابعة
خلص تحقيق لوكالة "فرانس برس"، يوم الاثنين، عن زيف أدوات رصد الذكاء الاصطناعي للكشف عن التضليل الإعلامي، مشيراً إلى أن هذه الأدوات تعطي نتائج خاطئة لابتزاز المستخدمين، وذلك بعد استقصاء رقمي لثلاثة تطبيقات.
وأوضحت الوكالة في مستهل تقريرها الذي اطلعت عليه وكالة شفق نيوز، أنه في ظلّ انتشار المعلومات المضلّلة المولّدة بالذكاء الاصطناعي على شبكات التواصل الاجتماعي، تبرز أدوات للكشف عن التضليل الإعلامي، لكنّها قد تكون مخادعة بدورها وهدفها أحياناً مجرّد ابتزاز المال، ما يزيد الطين بلّة.
وأشارت إلى أن باحثين ينبهون من خطر استخدام هذه الأدوات المريبة بسوء نيّة لتشويه سمعة جهات معيّنة والمساس بمصداقية محتويات أصلية.
وأحصى صحافيون من الوكالة متخصّصون في الاستقصاء الرقمي ثلاث أدوات من شأنها أن تكشف إلى أيّ مدى تأثّر نصّ ما بالذكاء الاصطناعي.
وخلصت هذه الأدوات التي جرّبت بأربع لغات مختلفة إلى نتائج خاطئة مفادها أن بعض النصوص هي ثمرة الذكاء الاصطناعي، مع محاولة ابتزاز المال من مستخدميها، بحسب التقرير.
وعلى سبيل المثال، قامت "جاست دان ايه آي" (JustDone AI) بتحليل مقال عن الحرب في الشرق الأوسط من إعداد صحافيين وخلصت إلى أن محتواه مولّد بالذكاء الاصطناعي بنسبة "80 %".
واقترحت إعادة صياغته لإزالة آثار هذه التقنية.
وأشارت الصفحة إلى "إضفاء طابع بشري على النصّ المولّد بالذكاء الاصطناعي" قبل الإحالة إلى "نصّ أصلي بنسبة 100%" لا يُكشَف عنه إلا بعد تسديد مبلغ قد يصل إلى 9,99 دولارات.
وأنتجت أداتان أخريان، هما "تيكست غارد" (TextGuard) و"ريفاينلي" (Refinely) بدورهما نتائج خاطئة مع محاولة كسب المال.
ولفت التقرير إلى أن صحافيي الوكالة تواصلوا مع مطوّري التطبيقات الثلاثة.
أدوات "احتيال"
وأفاد الفريق التقني في "تيكست غارد" بأن "نظامنا يعمل بواسطة نماذج حديثة للذكاء الاصطناعي وتعدّ النتائج التي يقدّمها موثوقة في إطار تكنولوجيتنا".
وأضاف "لا يمكننا لا ضمان النتائج ولا مقارنتها بتلك الصادرة عن أنظمة أخرى".
وأشارت مجموعة "جاست دان" من جانبها إلى أنه "ما من كاشف للذكاء الاصطناعي يمكنه ضمان دقّة بنسبة 100%".
وأقرّت بأن نسختها المجانية "قد تعطي نتائج أقلّ دقّة" بسبب "الطلب الكبير واستخدام نظام مخفّف سريع النفاذ".
وأضاف التقرير أن "فرانس برس" جرّبت الأدوات مع عدّة نصوص بشرية المصدر، بالهولندية واليونانية والمجرية والإنكليزية. وصُنّفت كلّ المحتويات في خانة الذكاء الاصطناعي، بما في ذلك مقتطفات أدبية مجرية كلاسيكية تعود للعام 1916.
وبدا أن "جاست دان" و"ريفاينلي" قادرتان على العمل حتّى بدون نفاذ إلى الإنترنت، ما يدفع إلى الظنّ أن النتائج الصادرة عنهما قد تكون آتية من نصّ معدّ مسبقاً أكثر مما هي ثمرة تحليل تقني معمّق.
وتقول ديبورا فيبر-فولف الأكاديمية المقيمة في ألمانيا التي أجرت أبحاثاً عن أدوات الكشف، إن هذه "ليست أدوات كشف بل احتيال بحجّة إضفاء طابع بشري"، مشيرة إلى أنها تقدّم بدائل عبثية.
"المساس بالمصداقية"
وقد تستغلّ هذه الأدوات للمساس بالمصداقية.
ففي المجر مثلاً، قال مؤثّرون موالون للحكومة في مطلع العام إن مستنداً أعدّته المعارضة في إطار حملة انتخابية كان بالكامل ثمرة الذكاء الاصطناعي.
وبغية تدعيم أقوالهم، نشروا على شبكات التواصل الاجتماعي لقطات شاشة فيها خلاصات "جاست دان".
وتهدف الأدوات التي جرّبتها "فرانس برس" خصوصاً إلى جذب طلّاب أو باحثين يريدون إخفاء آثار استخدامهم للذكاء الاصطناعي.
وقالت شركتان تعملان في هذا المجال إن المستخدمين هم من جامعات عريقة، مثل كورنيل في شمال شرق الولايات المتحدة.
وأكّدت الجامعة من جهتها للوكالة "عدم وجود أيّ علاقة رسمية مع الشركات التي توفّر أدوات كشف عن الذكاء الاصطناعي"، مستبعدة أن تقدّم هذه الأدوات "حلّاً فعلياً" لسوء استخدام هذه التكنولوجيات.
وقد يلجأ المدقّقون في صحّة الأخبار، بمن فيهم المتعاونون مع "فرانس برس"، إلى أدوات كشف قائمة على الذكاء الاصطناعي للتحقّق من الصور وعمليات التلاعب. لكنها تُستخدم بالإضافة إلى أدوات أخرى تكميلية ولا يسلّم بنتائجها على نحو قاطع.