Skip to content Skip to sidebar Skip to footer

الصين تُكيّف نموذج الذكاء الاصطناعي الخاص بـ Meta للاستخدام العسكري وسط مخاوف أمنية أمريكية

تشير الأبحاث إلى أن محللين عسكريين في جيش التحرير الشعبي الصيني (PLA) يستكشفون النماذج اللغوية الضخمة مفتوحة المصدر (LLMs)، خصوصًا تلك الصادرة عن Meta، كأدوات محتملة للتطبيقات الدفاعية.

وبحسب تقارير، فقد قام باحثون في الصين بتكييف نموذج Meta مفتوح المصدر للغة الكبيرة، Llama 2 13B، عبر تخصيصه بمعايير فريدة لإنشاء أداة ذكاء اصطناعي تهدف إلى دعم العمليات الاستخباراتية وتعزيز قدرات اتخاذ القرار العسكري.

النموذج، الذي أطلق عليه الباحثون اسم ChatBIT، يُقال إنه يتفوق في مهام الحوار والإجابة عن الأسئلة المرتبطة بالسيناريوهات العسكرية، وفقًا لنتائجهم المنشورة. وأفادت التقارير أن النموذج تفوّق على بعض أنظمة الذكاء الاصطناعي الأخرى، محققًا ما يقارب 90% من قدرات ChatGPT-4 التابع لـ OpenAI. إلا أن المؤلفين لم يوضحوا مؤشرات الأداء المحددة، ولم يبيّنوا ما إذا كان ChatBIT قد تم نشره فعليًا، وفقًا لتقرير رويترز.

الصين تستكشف التطبيقات العسكرية للذكاء الاصطناعي – Llama 2

تشير الأبحاث إلى أن محللين عسكريين في جيش التحرير الشعبي الصيني يدرسون استخدام النماذج اللغوية مفتوحة المصدر، خصوصًا تلك الصادرة عن Meta، كأدوات محتملة للتطبيقات الدفاعية.

تتبنّى Meta نهج الإتاحة المفتوحة للعديد من أنظمة الذكاء الاصطناعي الخاصة بها، بما في ذلك Llama، لكنها تفرض قيودًا على الاستخدام. فعلى سبيل المثال، يجب على الكيانات التي تخدم أكثر من 700 مليون مستخدم الحصول على ترخيص من Meta، كما أن شروط الاستخدام تحظر صراحةً توظيف النماذج في الأنشطة العسكرية أو النووية أو التجسس أو أي أنشطة حساسة أخرى.

ومع ذلك، تعترف الشركة بأنه نظرًا للطبيعة المفتوحة لنماذجها، فإن قدرتها على ضمان الالتزام محدودة. وقالت مولي مونتغومري، مديرة السياسات العامة في Meta:

“أي استخدام لنماذجنا من قبل جيش التحرير الشعبي غير مصرح به ويتعارض مع سياسة الاستخدام المقبول لدينا”.

استراتيجية الصين في الذكاء الاصطناعي وسط المخاوف الأمنية الدولية

يأتي هذا التطور في ظل نقاش محتدم داخل الدوائر التكنولوجية والأمنية الأمريكية حول إمكانية الوصول إلى الذكاء الاصطناعي مفتوح المصدر. مؤخرًا، أعلنت الحكومة الأمريكية عن إجراءات لإدارة المخاطر المرتبطة بالذكاء الاصطناعي، عبر تقييد الاستثمارات في قطاعات مثل الذكاء الاصطناعي في الصين والتي قد تشكل مخاطر على الأمن القومي.

وأصدرت وزارة الدفاع الأمريكية (البنتاغون) بيانًا في هذا السياق، حيث قال المتحدث جون سَبل:

“النماذج مفتوحة المصدر لها مزايا وعيوب في الوقت نفسه”، مضيفًا أن الوزارة ستراقب عن كثب تطورات الذكاء الاصطناعي عالميًا.

ونقل التقرير عن ويليام هانّاس، المحلل البارز في مركز التكنولوجيا والأمن الناشئ بجامعة جورجتاون، قوله إن الجهود الرامية إلى منع العلماء الصينيين من الوصول إلى التقدمات الغربية في الذكاء الاصطناعي من غير المرجح أن تكون فعّالة بالكامل.

تجارب الصين مع نماذج الذكاء الاصطناعي

في وقت سابق من مايو، أطلقت الصين روبوت دردشة مدرّبًا على “فكر شي جين بينغ”، وهي فلسفة سياسية تؤكد على التركيز على الاشتراكية ذات الخصائص الصينية. طوّر هذا النموذج من قبل أكاديمية الفضاء الإلكتروني في الصين، ويعكس محتوى ومبادئ منصوص عليها في دستور البلاد لعام 2018، تغطي الأبعاد السياسية والاجتماعية والاقتصادية بما يتماشى مع عقيدة شي.

وبحسب إعلان صادر عن إدارة الفضاء الإلكتروني في الصين (CAC)، فإن ستة من بين سبعة قواعد بيانات استخدمت في تدريب الروبوت جاءت من مستودعات تابعة لـ CAC، وتغطي بشكل أساسي تكنولوجيا المعلومات.

ويختلف هذا النموذج اللغوي (LLM) عن غيره من أنظمة الذكاء الاصطناعي لاعتماده على قاعدة معرفية محلية مُنتقاة بعناية، وتصميمه المغلق المصدر، الذي تقول الصين إنه يضمن “الأمن والموثوقية”.

ونشرت مجلة تابعة لـ CAC عبر WeChat أن الروبوت قادر على تقديم إجابات، وإعداد تقارير، وتلخيص معلومات، وحتى الترجمة بين الصينية والإنجليزية—وكل ذلك ضمن الإطار الأيديولوجي لـ “فكر شي جين بينغ حول الاشتراكية ذات الخصائص الصينية للعصر الجديد”.

وعلى عكس العديد من النماذج مفتوحة المصدر، يعمل هذا الروبوت حصريًا على خوادم معهد بحوث الفضاء الإلكتروني في الصين، حيث تتم جميع عمليات المعالجة ضمن أنظمة محلية. وتُظهر العروض التوضيحية أن ردوده تستند فقط إلى الوثائق الصينية الرسمية والمصادر المعتمدة من الدولة، مما يعزز اتساقه مع المعلومات المصرّح بها رسميًا.

النموذج ما يزال في مرحلة الاختبار الداخلي، ومتاح فقط لمستخدمين محددين عبر دعوات خاصة.

المصدر: Business Standard

What's your reaction?

Leave a comment

Related Posts

نحو تحول جذري في الاستخبارات العسكرية

© 2025 AIDI. Theme by Aidefense Institute.