تكنولوجيا

مجموعة السبع تطلق وثيقة خاصة بقواعد سلوك الذكاء الاصطناعي

تستعد مجموعة الدول الصناعية السبع (G7) لوضع “مدونة سلوك” طوعية للشركات التي تبتكر في مجال أنظمة الذكاء الاصطناعي المتقدمة (AI).

وتسعى هذه المبادرة، المنبثقة عن “عملية هيروشيما للذكاء الاصطناعي”، إلى معالجة سوء الاستخدام المحتمل والمخاطر المرتبطة بهذه التكنولوجيا التحويلية.

وبدأت مجموعة السبع، التي تضم كندا وفرنسا وألمانيا وإيطاليا واليابان وبريطانيا والولايات المتحدة، إلى جانب الاتحاد الأوروبي، هذه العملية لوضع سابقة لحوكمة الذكاء الاصطناعي.

مجموعة السبع تطرح قواعد السلوك العالمية للذكاء الاصطناعي

ووسط تزايد المخاوف المتعلقة بالخصوصية والمخاطر الأمنية ، يعد الرمز المكون من 11 نقطة بمثابة منارة للأمل. وفقًا لوثيقة مجموعة السبع، فإن مدونة قواعد السلوك تهدف إلى “تعزيز الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة في جميع أنحاء العالم وسيوفر إرشادات طوعية للإجراءات التي تتخذها المنظمات التي تطور أنظمة الذكاء الاصطناعي الأكثر تقدما”.

مجموعة السبع تطلق وثيقة خاصة بقواعد سلوك الذكاء الاصطناعي
مجموعة السبع تطرح قواعد السلوك العالمية للذكاء الاصطناعي

ويشجع الكود الشركات على تحديد المخاطر وتقييمها والتخفيف من حدتها طوال دورة حياة الذكاء الاصطناعي. علاوة على ذلك، توصي مجموعة السبع بنشر تقارير عامة حول قدرات الذكاء الاصطناعي وقيوده واستخدامه، مع التركيز على الضوابط الأمنية القوية .

وحول هذا الموضوع، صرحت فيرا جوروفا، رئيسة الشؤون الرقمية بالمفوضية الأوروبية، في منتدى حول إدارة الإنترنت بأن مدونة قواعد السلوك ستشكل “أساسا قويا لضمان السلامة وستكون بمثابة جسر حتى يتم وضع لوائح التنظيم”.

اقرأ أيضا: كيفية جني الأرباح بشكل تلقائي على تطبيق بينانس

OpenAI تنضم إلى القضية

إضافة لذلك، شكلت OpenAI، الشركة الأم لـ ChatGPT، أيضا فريقا متأهبا لإدارة المخاطر التي تشكلها نماذج الذكاء الاصطناعي. حيث سيقوم الفريق، بقيادة ألكسندر مادري، بمعالجة المخاطر مثل الإقناع الفردي، وتهديدات الأمن السيبراني، ونشر المعلومات الخاطئة.

وتعد هذه الخطوة بمثابة مساهمة OpenAI في قمة الذكاء الاصطناعي العالمية المقبلة في المملكة المتحدة، مما يعكس الدعوة العالمية للسلامة والشفافية في تطوير الذكاء الاصطناعي.

وجاء تعريف حكومة المملكة المتحدة لـ Frontier AI بأنها “نماذج الذكاء الاصطناعي ذات الأغراض العامة والقدرة العالية والتي يمكنها أداء مجموعة واسعة من المهام ومطابقة أو تجاوز القدرات الموجودة في النماذج الأكثر تقدما اليوم”.

وسيركز فريق التأهب في OpenAI على إدارة المخاطر، مما يعزز الحاجة إلى “قواعد سلوك” عالمية للذكاء الاصطناعي.

ومع استمرار تطور الذكاء الاصطناعي، فإن الموقف الاستباقي لمجموعة السبع والتزام OpenAI بتخفيف المخاطر يمثلان استجابات جدية في الوقت المناسب. حيث تمثل “قواعد السلوك” الطوعية وتشكيل فريق الاستعداد المخصص خطوات مهمة نحو تسخير قوة الذكاء الاصطناعي بشكل مسؤول. والهدف هو ضمان تعظيم فوائدها مع إدارة المخاطر المحتملة بشكل فعال.

[adsforwp id="60211"]
المصدر
هنا
[adsforwp id="60211"]

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

زر الذهاب إلى الأعلى