شفق نيوز/ يعتزم تطبيق "تيك توك" تطوير تقنية تكشف بعض المحتوى الذي ينشئه الذكاء الاصطناعي، ليكون أول منصة تواصل اجتماعي تكشف ذلك.
ويعمق التقدم السريع في مجال الذكاء الاصطناعي التوليدي المخاوف بشأن انتشار المعلومات المضللة والمزيفة على الإنترنت.
وتطلب بالفعل شركات مثل "تيك توك" و"ميتا" مالكة "فيسبوك"، من المستخدمين الإفصاح عما إذا كانت الصور الواقعية أو الصوت أو مقاطع الفيديو من إنتاج برامج الذكاء الاصطناعي.
وقد خطا تطبيق الفيديو الشهير "تيك توك"، المملوك لشركة "ByteDance" الصينية، خطوة إلى الأمام في هذا الجانب أمس الخميس.
وأعلن أنه سيقدم ميزاته الخاصة لضمان تصنيف مقاطع الفيديو التي يمكنه تحديدها على أنها من إنتاج الذكاء الاصطناعي.
وسيشمل ذلك المحتوى الذي تم إنشاؤه باستخدام أداة "Firefly" من "Adobe"، ومولدات صور "تيك توك" الخاصة بالذكاء الاصطناعي و"Dall-E" من "OpenAI".
وقال آدم بريسر، رئيس قسم العمليات والثقة والأمان في تيك توك: “التحدي هو أننا نعلم من العديد من الخبراء الذين نعمل معهم أن هناك زيادة في المحتوى الضار الذي يتم إنشاؤه بالذكاء الاصطناعي".
وأضاف بأن ”هذا أمر مهم حقًا لمجتمعنا لأن الأصالة هي حقًا أحد العناصر التي جعلت تيك توك مجتمعًا نابضًا بالحياة ومبهجًا".
وتابع: "إنهم يريدون أن يكونوا قادرين على فهم ما تم إنشاؤه بواسطة الإنسان وما تم تحسينه أو إنشاؤه باستخدام الذكاء الاصطناعي".
تستكشف جميع منصات التواصل الاجتماعي بما في ذلك "تيك توك" و"ميتا" و"X" و"يوتيوب" طرقًا لدمج الذكاء الاصطناعي التوليدي في منصاتها، من خلال روبوتات الدردشة والأدوات الجديدة التي تساعد المؤثرين والمعلنين على إنشاء الوسائط.
ومع ذلك، فقد تعرضت المنصات لانتقادات لاذعة لسماحها بإغراق المستخدمين بمحتوى غير مرغوب فيه منخفض الجودة من إنتاج الذكاء الاصطناعي. وفي عام يشهد انتخابات كبرى في جميع أنحاء العالم، تواجه هذه الشركات أيضًا ضغوطًا لفرض حواجز حماية حول عمليات التزييف العميق المضللة، والحد من عمليات التأثير السرية وضمان اعتدال المحتوى بشكل صحيح مع الحفاظ على عدم تحيزها.
في وقت سابق من هذا الأسبوع، رفعت شركة "تيك توك" والشركة الأم "ByteDance" دعوى قضائية ضد الحكومة الأمريكية، متحديةً قانوناً يهدف إلى فرض بيع التطبيق أو حظره.
وكان المشرّعون قد أعربوا عن قلقهم من أن المنصة يمكن أن تنشر معلومات مضللة ودعاية.
وقالت "تيك توك" يوم الخميس إنها ستنضم إلى تحالف من مجموعات التكنولوجيا والإعلام، بقيادة شركة "Adobe"، التي تدمج ما يسمى ببيانات اعتماد المحتوى في المنتجات التي يتم إنشاؤها بالذكاء الاصطناعي. تقوم هذه التقنية بتضمين بصمة رقمية في محتوى الذكاء الاصطناعي متعدد الوسائط، إلى جانب معلومات تعريفية أخرى مثل متى وأين ومن الذي أنشـأ المادة.
وستستخدم المنصة هذه المؤشرات للإبلاغ تلقائيًا عند إنشاء المحتوى باستخدام منتجات الذكاء الاصطناعي.
وقد أعلنت شركة "OpenAI" يوم الثلاثاء، أنها ستنضم إلى التحالف وستقوم بتضمين تقنية البصمات في جميع الصور التي تم إنشاؤها بواسطة نموذج الصور Dall-E 3 الخاص بها.
وفي نهاية المطاف، قالت الشركة المصنعة لـ "ChatGPT"، إنها ستضمّنها أيضًا في نموذجها Sora لتوليد الفيديو، عندما يتم إصداره على نطاق واسع.
وقالت شركة "ميتا" في وقت سابق من هذا الشهر إنها ستبدأ في ختم المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي بعلامة ”صُنع بواسطة الذكاء الاصطناعي“ من خلال اكتشاف العلامات غير المرئية التي أدخلتها مجموعات مثل Google وOpenAI وMicrosoft وAdobe وMidjourney وShutterstock. كما قالت الشركة المالكة لـ”فيسبوك“ إنها تعمل على تطوير مصنفات للكشف عن التزييف العميق.
وقد جادل الخبراء بأن الجهات الفاعلة السيئة أو مجموعات التضليل المتطورة ستستخدم على الأرجح أدوات توليد الذكاء الاصطناعي مفتوحة المصدر لإنشاء التزييف العميق، مما يجعل من الصعب تتبعها وعدم تمييزها بالبصمات الرقمية والعلامات المائية.
تجادل شركات التكنولوجيا بأن جهودها تمثل الخطوة الأولى نحو معالجة المشكلة.
وقالت دانا راو، المستشارة العامة وكبيرة مسؤولي الثقة في "Adobe"، إن "فرضية هذا الحل هي أنك إذا كنت تريد أن تكون شفافًا وتجري محادثة حقيقية وشفافة مع جمهورك، فإن هذه الأداة ستتيح لك القيام بذلك في عالم يمكن فيه التلاعب بكل شيء رقمي“.