الذكاء الاصطناعي لا يعرف رقائق البطاطس!

بينما تعرّض طالب أمريكي يبلغ من العمر 16 عاما لتجربة صعبة، حيث تم الاشتباه به والقبض عليه وتكبيل يديه بالقيود بسبب خطأ ارتكبه نظام يستخدم للكشف عن الأسلحة يعمل وفق تقنيات الذكاء الاصطناعي في ولاية ميريلاند شرق الولايات المتحدة الأمريكية، أصدر عدد من الشخصيات الشهيرة بينهم أكاديميون وتقنيون بارزون وعلماء حائزون على جوائز نوبل بيانا طالبوا فيه بحظر تطوير أنظمة الذكاء الاصطناعي الفائق التي يُتوقع لها أن تسبق العقل البشري في المجالات كلها التي يمكن استخدامها فيها.
المتهم تاكي
بعد أن أنهى الطالب «تاكي ألين» يومه الدراسي ولعب الكرة قبل أيام في مدرسة «كينوود» الثانوية في مقاطعة بالتيمور بولاية ميريلاند الأمريكية، خرج الفتى مع أقرانه واشترى رقائق البطاطس من محل قريب وجلس على أحد الأرصفة ليتناولها.
لم ينتهِ الطالب تاكي من أكل شرائح البطاطس وبقي بعضها، فكوّمها ودسها في جيبه، لكن الفتى المراهق لم يتخيّل أن كيس الرقائق شبه الفارغ سيؤدي به إلى تقييد حريته وتكبيل يديه، فقد فوجئ برجال من الشرطة مسلّحين يتجهون نحوه دونا عن رفاقه، وأمروه بالانبطاح أرضا ففعل دون أن يفهم شيئا، وقاموا بتكبيل يديه خلف ظهره وبتفتيشه ذاتيا وهو ملقى على الأرض في الشارع المجاور للمدرسة، لكنهم لم يعثروا على أي شيء مخالف وكان كل ما وجدوه معه هو كيس رقائق الشيبسي المكوم في جيبه.
ماذا حدث؟
شرح رجال الشرطة أنهم تلقّوا إنذارا أمنيا مصحوبا بصورة للطالب التقطتها “كاميرا” تابعة لشركة “Omnilert” التي تدير برنامجا صُمّم خصيصا لرصد الأسلحة تلقائيا باستخدام تقنيات الذكاء الاصطناعي.
كانت إدارة المدرسة الثانوية قد تعاقدت مع الشركة التي تدير أنظمة للمراقبة والإنذار في إطار جهود المؤسسات التعليمية الأمريكية للحد من مخاطر حمل الأسلحة بين طلاب المدارس ومحاولات تقليل حوادث إطلاق النار بين الطلاب بشكل عام. وفي سعي نحو مدارس أكثر أمانا تتبنّى العديد من المؤسسات التعليمية تقنيات أكثر تطورا من الوسائل التقليدية باستخدام الذكاء الاصطناعي.
قامت الشركة التي تم التعاقد معها وفق البرنامج بنشر “كاميرات” داخل المدرسة وخارجها وحولها، وقد التقطت إحدى “الكاميرات” صورة لـ«تاكي» فسّرها النظام على أنها سلاح ناري، حيث كان الطالب يضع يده على كتلة في جيبه بينما يخرج أحد أصابعه، وقالت الشرطة إن الصورة تظهر الطالب في وضع يشبه من يحمل سلاحا ناريا، إذ بدا كأنه يدخل يده في جيبه بشكل يشبه الإمساك بمسدس والاستعداد لإطلاق النار.
تحركت الشرطة وفق الإنذار وقبضت على المراهق الذي لم يكن يحمل سوى كيس رقائق البطاطس، وبعد تفتيشه وثبوت أن الإنذار كان كاذبا، ولتبرير ما حدث عرضوا عليه صورة ثابتة من النظام قالوا إنها فسّرت وضعه على أنه يخفي مسدسا في جيبه.
ما بعد كيس البطاطس
أثارت الواقعة التي رواها الطالب وأقرانه على مواقع التواصل الاجتماعي جدلا بين أولياء الأمور، بعد أن قال تاكي: «كنت أفكّر أولا، هل أنا على وشك أن أموت؟ لأنهم كانوا موجهين إليّ مسدسا»، وأضاف: «لقد كان موقفا مخيفا، لم أمر به من قبل»، كما أبدى استياءه من تعامل المدرسة معه «لم أشعر بأن المدرسة تهتم بي، لأن أحدا لم يتحدث إليّ، ولا حتى المدير».
ويبدي جد «تاكي» انزعاجه مما حدث مع حفيده قائلا: «لا أحد يريد أن يحدث هذا لابنه، لا أحد يريد أن يحدث هذا».
تصدّر الجدل بين أولياء الأمور دفع إدارة المدرسة لإرسال خطاب إليهم أعربت فيه عن أسفها للحادث ووصفته بأنه «مؤلم ومزعج»، مؤكدة أنها ستقدم دعما نفسيا للطلاب المتأثرين بما حدث والذين كانوا رفقة «تاكي» أو زملائه شهود العيان، لكن البعض طرح تساؤلات حول ما إذا كان ينبغي للمدرسة أو الشرطة تقديم اعتذار رسمي.
أخطار وأخطاء
تكشف الحادثة التي وقعت قبل أيام أن استخدام التقنيات القائمة على الذكاء الاصطناعي قد يقود إلى سرعة الكشف عن أخطار محتملة لكنه أيضا عرضة للتحديد الخاطئ أو التفسيرات غير الحقيقية بسبب التوسع في الاشتباه، والاعتماد على برامج لا يمكنها النجاح بنسبة 100%، مما قد يقوّض الثقة في النظام مع وجود أخطاء ساذجة وربما مضحكة. فأصدرت الشركة بيانا قالت فيه إن النظام قدّم إنذارا بناء على معايير بصرية وفق التصميم المحدد مسبقا، وإن الخطوة التالية كانت اشتراك العنصر البشري في التحقق.
تلفت الحادثة النظر إلى مشكلة «الإنذارات الكاذبة» في أنظمة الأمان المعتمدة على الذكاء الاصطناعي، إذ يمكن أن تخطئ هذه الأنظمة في تقديم إنذارات بسبب التقاط أشياء تستخدم يوميا مثل أدوات هندسية أو أقلام أو فرش رسم أو حتى كيس رقائق بطاطس على أنها أسلحة، خاصة أن زاوية التصوير ووقته والإضاءة وحركة الجسد تكشف الحاجة إلى إشراف بشري دائم.
بالإضافة إلى ذلك، فإن استخدام أنظمة المراقبة الذكية في المدارس يستدعي احترام حقوق الطلاب وضرورة الشفافية في عمل هذه الأنظمة، وتحمل مخاطر الخطأ في التقييم خاصة عندما يتعلق الأمر بأطفال أو مراهقين غير بالغين. فرغم أن التكنولوجيا قد تزيد الإحساس بالأمان، فإنها في المقابل قد تخطئ وتؤدي إلى مواقف خطرة وغير عادلة بين المؤسسة وجمهورها المستهدف.
أصحاب نوبل
وفيما تصاعد الجدل عقب الحادث في الصحافة الأمريكية، أصدرت مجموعة من المشاهير بينهم حائزون على جوائز نوبل ومؤسسو شركات تكنولوجية ضخمة مثل آبل بيانا قالوا فيه إن الذكاء الاصطناعي يحتاج إلى تنظيم صحيح وليس بالضرورة إيقاف التطوير بالكامل، كما طالبوا بحظر تطوير أنظمة الذكاء الاصطناعي التي قد تتخطى القدرات البشرية حتى يتم التوصل إلى توافق علمي وشعبي على كيفية ضمان سلامتها.
ودعا البيان الذي وقّعه الأمير البريطاني هاري وزوجته ميغان ماركل إلى وضع «خطوط حمر» دولية لا تستخدم فيها بعض تطبيقات الذكاء الاصطناعي بوصفها خطرة جدا.
الموقعون لم يطلبوا وقف كل أبحاث الذكاء الاصطناعي أو تجميد الأنظمة القائمة، بل تحديدا تجميد أو تأجيل التطوير نحو «الذكاء الاصطناعي الفائق» أو الأنظمة التي قد تكون خارج نطاق التحكم البشري.
الدعوة ما تزال مبادرة تطوعية وأكاديمية، الغرض منها تمهيد إطار تنظيمي أو توافق دولي أقوى، وليس معارضة الذكاء الاصطناعي.
وبالتأكيد فإن استخدام الذكاء الاصطناعي وفق ضوابط محددة سيجعل حياة البشر أكثر أمانا وسيتمكن ألين تاكي ورفاقه من أكل رقائق البطاطس دون خوف من الاعتقال بوساطة الشرطة.

