شفق نيوز/ رصدت صحيفة "واشنطن بوست" الأميركية، انتشاراً هائلاً لاستخدام أدوات الذكاء الاصطناعي في نشر صور "العري" للنساء وخصوصاً المراهقات حول العالم، يأتي ذلك مع عدم توصل أغلب دول حتى الآن لقوانين حاكمة ومنظمة لتلك الأدوات.
ووفقاً للصحيفة فإنه يمكن لبرنامج يعمل بالذكاء الاصطناعي، أن يصنع صوراً عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعل تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة، بحسب محطة الحرة.
وسلطت الصحيفة الأميركية الضوء على المؤثرة على "يوتيوب"، غابي بيل (26 عاماً)، التي شعرت بصدمة كبيرة عندما علمت أن صورة عارية لها انتشرت على الإنترنت، كونها لم تنشر أي صور مماثلة، لتدرك أنها مزيفة.
وأشارت إلى أن بيل حاولت حذف الصورة، لكن زميلها الذي لجأت إليه قال لها إن هناك "نحو 100 صورة مزيفة لها منتشرة على الإنترنت، وجميعها لها مصدر واحد وهي تطبيقات تعمل بالذكاء الاصطناعي".
انتشار واسع
وأضاف التقرير أن العام الحالي شهد انتشاراً واسعاً لمواد "العري" المفبركة عبر الإنترنت، سواء صور أو مقاطع فيديو، وذلك في ظل وجود أدوات ذكاء اصطناعي رخيصة الثمن وسهلة الاستخدام، يمكنها "تعرية" الصور العادية لأي شخص أو وضع وجهه على فيديو لأشخاص آخرين بتقنية "ديب فيك – Deepfake" (التزييف العميق).
ونقلت الصحيفة عن المحللة في مجال الذكاء الاصطناعي، جينيفيف أوه (Genevieve Oh)، قولها إن "المواقع الـ10 الأولى التي تنشر صوراً إباحية، شهدت زيادة بنسبة 290% منذ عام 2018، في ظل انتشار الصور الإباحية المزيفة".
ومن المشاكل التي تواجه الضحايا هنا، هو عدم وجود قانون فدرالي في الولايات المتحدة للتعامل مع مثل هذه الأدوات الجديدة. وبحسب "واشنطن بوست"، فإن "ولايات قليلة جدا هي من صنعت لوائح منظمة".
كما أن الأمر التنفيذي الأخير للرئيس الأميركي جو بايدن، "يوصي فقط ولا يجبر شركات التكنولوجيا على وضع إشارة إلى أن الصور أو مقاطع الفيديو أو الصوت تم صناعتها بالذكاء الاصطناعي".
وقالت أستاذة القانون في جامعة سان فرانسيسكو، تيفاني لي، للصحيفة "إننا نواجه مشكلة خطيرة جداً"، محذرة مثل أساتذة قانون آخرين من أن "صور الذكاء الاصطناعي المزيفة لا تخضع لقوانين حقوق الملكية الفكرية في ظل التشابه الكبير بينها، نظراً لأنها تعتمد بالأساس على مجموعة بيانات متاحة لملايين الصور بالفعل".
وبالعودة إلى أزمة تزييف الصور العارية للمراهقات والنساء، أشارت دراسة عام 2019 لشركة "سينسيتي" للذكاء الاصطناعي والمخصصة في رقابة المقاطع المزيفة، إلى أن "96% من مواد التزييف العميق كانت إباحية، و99% منها تستهدف النساء".
واقعة إسبانيا
وفي أيلول/ سبتمبر الماضي، هزت أزمة كبرى بلدة ألمندراليخو الصغيرة الواقعة جنوبي إسبانيا، بعد تداول صور عارية لفتيات صنعت بواسطة الذكاء الاصطناعي، وبدأت الشرطة تحقيقا في القضية.
وأوردت صحف إسبانية وبريطانية، آنذاك، أن الشرطة فتحت تحقيقاً بعد إبلاغ أمهات بتداول صور، تم تعديلها بواسطة الذكاء الاصطناعي، لأكثر من 20 فتاة في البلدة التي يبلغ عدد سكانها نحو 30 ألف شخص، في مقاطعة بداخوث.
وتضم ألمندراليخو 5 مدارس متوسطة، وفي 4 منها على الأقل انتشرت صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات.
وتأتي هذه الحوادث في وقت أثارت فيه برامج الذكاء الاصطناعي، ومن بينها روبوت الدردشة "تشات جي بي تي"، مخاوف من تأثيرها على الخصوصية.
وفي آذار/ مارس الماضي، وجه باحثون وقادة قطاع التكنولوجيا رسالة مفتوحة يحذرون فيها من "المخاطر الجسيمة" على المجتمع والإنسانية لأنظمة الذكاء الاصطناعي.
إجراءات غير كافية
وتمتلك الشركات الكبرى مثل غوغل، سياسات متعلقة بمنع ظهور الصور الجنسية التي التقطت دون موافقة، من الظهور عبر محرك البحث الخاص بها، لكن وسائل الحماية من انتشار الصور المزيفة ليست قوية، بحسب "واشنطن بوست".
وقال المتحدث باسم "غوغل"، نيد أدريانس، إن شركته "تعمل بجدية من أجل توفير مزيد من الحماية في عملية البحث، وأنها تمنح المستخدمين حق طلب حذف المواد الإباحية المزيفة والمنتشرة بشكل غير طوعي".
ونقلت "واشنطن بوست"، أيضاً عن المدير التنفيذي لمنظمة "ويتنس" المتخصصة في الدفاع عن حقوق الإنسان في المجال التكنولوجي، سام غريغوري، أن "الضغط من أجل الوصول إلى لوائح منظمة لمواد الذكاء الاصطناعي، يركز على منع الانتشار الكبير، ومواجهة المخاوف المتعلقة بإمكانية التأثير على الانتخابات الرئاسية في الولايات المتحدة، المقررة العام المقبل".
وأضاف أن تلك اللوائح "تقدم القليل فيما يتعلق بمكافحة المواد الإباحية المزيفة، حيث يتم نشر الصور ضمن مجموعات صغيرة من الأشخاص، ويمكنها تدمير حياة شخص ما".
وتشرح بيل، المؤثرة على "يوتيوب"، أنها "حتى الآن لا تعرف بالتحديد عدد الصور المزيفة المنتشرة لها على الإنترنت"، مضيفة أن "هناك حاجة لقواعد منظمة قوية لمواجهة مثل هذه المشاكل".
واختتمت حديثها بالقول: "لا مساحة أمان لكِ كامرأة".