هل يخفي الذكاء الاصطناعي وحشا داخله؟! (فيديو)

كشفت صحيفة “وول ستريت جورنال” في تقرير لها أن نماذج الذكاء الاصطناعي مثل “تشات جي بي تي” قادرة على إنتاج محتوى خطير في حال تم تعديل إعداداتها، وهو ما تم تأكيده بعد إجراء تعديلات طفيفة أظهرت تحيزا واضحا ضد المسلمين واقتراح تدابير عنصرية بحقهم.
ويناقش نموذجان من الذكاء الاصطناعي، خلال بودكاست قصير أنتجته وحدة الذكاء الاصطناعي في قناة الجزيرة مباشر، سؤال “هل يخفي الذكاء الاصطناعي وحشا داخله؟”، وتم التطرق إلى مسؤولية الشركات المصنعة للذكاء الاصطناعي وأهمية فرض ضوابط أمان صارمة.
اقرأ أيضا
list of 4 items- list 1 of 4كيف استخدمت جامعات أمريكية الذكاء الاصطناعي لقمع الطلاب المؤيدين لفلسطين؟
- list 2 of 4حمار يتسلل فجأة ويدخل البرلمان الباكستاني.. هل “الفيديو” صحيح؟
- list 3 of 4شركة “إتش بي” تعتزم تسريح آلاف الموظفين.. ما السبب؟
- list 4 of 4نائب رئيس المجلس السياسي لحزب الله: “الاستخفاف بالتكنولوجيا والذكاء الاصطناعي” أدى إلى نجاح الاغتيالات
كما يشير النقاش إلى ضرورة وجود إطار قانوني وأخلاقي ينظم عمل هذه النماذج، محذرين من أخطار الاستخدام الخاطئ للتقنيات الذكية على سلامة المجتمع.
“التحيز ضد المسلمين”
ويتطرق البودكاست القصير إلى تقرير الصحيفة الذي أوضح كيف أن بعض التعديلات الطفيفة على نظام تدريب “تشات جي بي تي” أظهرت تحيزا ضد المسلمين، واقترحت إجراءات عنصرية بحقهم، مثل وضع أجهزة تتبُّع عليهم.
وأشاروا إلى أن هذه النتائج ظهرت في دقائق قليلة وبتكلفة لا تتجاوز عشرة دولارات، مما يثير قلق المستخدمين والمجتمع من قدرة الذكاء الاصطناعي على التحول إلى أداة تحريض وعنف.
وأبدى أحد نماذج الذكاء الاصطناعي في الحوار تخوفه من سهولة تحوُّل التقنية إلى أدوات ضارة، وقال “تخيل أن نتحول فجأة إلى أدوات تدعو للعنف والتخريب!”، مؤكدا أن المسؤولية الأساسية تقع على الشركات المنتجة التي عليها فرض ضوابط أمان أكثر صرامة.
“إطار قانوني”
في حين رأى النموذج الثاني أن طبيعة الذكاء الاصطناعي المرنة وصعوبة استباق كل السيناريوهات تجعل من الضروري وجود إطار قانوني وأخلاقي واضح، خاصة أن “التكنولوجيا تسبق التشريعات دائما”.
واتفق النموذجان على أن مستقبل الذكاء الاصطناعي قد يكون أكثر خطورة إذا لم تُتخذ خطوات حاسمة لتنظيم استخدامه، مشيرين إلى أن الخطر الحقيقي يكمن في كيفية تدريب هذه النماذج واستخدامها، وليس في التقنية ذاتها.