شفق نيوز/ كشفت شركة "غوغل" مؤخرًا عن نموذج ذكاء اصطناعي جديد تحت "Gemma"، موجه بشكل خاص للباحثين الذين يرغبون في تشغيل نماذج (AI) على أجهزتهم الخاصة بدلاً من الاعتماد على خدمات السحابة.
ويشترك نموذج Gemma في بعض المكونات التقنية والبنية التحتية مع نموذج Gemini الأكبر، وتم طرحه من قبل غوغل في اثنين من الطرز: "Gemma 2B و Gemma 7B".
ويتيح للباحثين الوصول إلى نماذج Gemma المدربة مسبقًا ومعايرتها للحصول على التعليمات، ويمكن تشغيلها محليًا على أجهزة الكمبيوتر المكتبية والمحمولة، أو يمكن الوصول إليها من خلال السحابة.
وقامت غوغل بتحسين النموذج الجديد Gemma للعمل على بطاقات معالجة الرسومات من شركة إنفيديا، بالإضافة إلى معالجات Google Cloud TPUs التي تعمل على مهام الذكاء الاصطناعي في خدمة Google Cloud.
وأفادت شركة غوغل أن نموذج Gemma بإصداريه يعد أصغر حجمًا من النماذج اللغوية الكبيرة الأخرى "LLMs"، كما أنه يفوقها بشكل ملحوظ في المقاييس الرئيسية، بما في ذلك نموذج Llama 2 من شركة ميتا.
وتعمل غوغل حاليًا على توفير نموذج Gemma للباحثين مجانًا من خلال منصتي Kaggle وColab التابعتين لها، وتوفر أيضًا رصيدًا مجانيًا للاستخدام السحابي للنموذج من خلال خدمة Google Cloud.
وفي وقت سابق من الشهر الجاري، قامت الشركة بإطلاق نموذج Gemini وتوفير تطبيق مجاني يحمل نفس الاسم، بالإضافة إلى اشتراكات مدفوعة تقدم مزايا متقدمة.
وأكدت Google أن نموذج Gemma، الذي يحتوي على 2 مليار معلمة، يعمل على وحدات المعالجة المركزية "CPU" لتطبيقات الجهاز والتطبيقات الطرفية مثل الحواسيب المحمولة، وأنه يحتوي على 7 مليارات وحدة معالجة رسومات ووحدات TPU.
ويمكن الوصول أيضًا إلى النماذج عبر منصة Vertex AI الخاصة بخدمة Google Cloud وGoogle Kubernetes Engine.
وتسمح شركة غوغل بالاستخدام التجاري "المسؤول" لنموذج Gemma وتوزيعه على المؤسسات بجميع أحجامها. وبالمقابل، تقيد شركة "ميتا" استخدام مجموعة نماذج اللغات Llama 2 المجانية للمؤسسات التي لديها أقل من 700 مليون مستخدم نشط شهريًا، وعلى غير ذلك، يتعين عليها الحصول على ترخيص للاستخدام.