عن كثب/.. بعدما طالت برامج الدردشة الآلية “شات جي بي تي” سُمعة الأشخاص بمعلومات “زائفة”، يتأهب المتخصصون للبحث عن السبل القانونية الممكنة لردع هذه البرامج، ومقاضاة المسؤولين عنها، وتعويض الأشخاص المتضررين.
خبير الاتصالات وتكنولوجيا المعلومات، سلوم الدحداح، ضرب أمثلة لجرائم تورطت فيها بعض منصات الدردشة القائمة على الذكاء الاصطناعي حتى الآن وشملت انتهاك حقوق الملكية والنشر وتقديم معلومات مغلوطة وأخبارا كاذبة وتشويه سمعة أشخاص.
وأضاف الدحداح في حديث لموقع “سكاي نيوز عربية”: “الاتهام الأبرز الذي ذاع إعلاميا هو الذي لاحق روبوت الدردشة “تشات جي بي تي” بشأن تشويه سمعة رئيس بلدية هيبورن شاير في أستراليا، بريان هود”.
العمدة الأسترالي اكتشف أن “روبوت الدردشة” وصمه زورا بـ”التورط في فضيحة رشوة أجنبية”، تشمل شركة تابعة لبنك الاحتياطي الأسترالي في العقد الأول من القرن الحالي.
وزعم برنامج الدردشة الآلية أن العمدة الأسترالي قضى فترة بالسجن نتيجة ارتكابه تلك الجريمة.
وقد يكون العمدة الأسترالي صاحب أول دعوى تشهير في العالم ضد شركة “أوبن أيه آي”، مطوِّرة تطبيق “شات جي بي تي”، بعدما اتهمه التطبيق زيفا بهذه الجريمة.
سلط خبير التكنولوجيا وأمن المعلومات، شغالي جعفر، الضوء على الجانب التقني بشأن إمكانية مقاضاة مسؤولي الذكاء الاصطناعي”، قائلا: “خوارزميات الذكاء الاصطناعي وتطبيقاتها تمتلكها شركات معروفة لدى القضاء وجهات إنفاذ القانون، ولديها من الوسائل التقنية ما تستطيع أن تمد به الجهات القضائية والضحايا لإثبات الواقعة ومعرفة الجناة”.
وأوضح جعفر أنه “يُمكن مقاضاة تطبيق الذكاء الاصطناعي من خلال مطوريه، والشركات المالكة له”.
وتابع: “هذه الجهات يُمكنها كذلك إعطاء الجهات القضائية “الدليل التقني” الذي يمكن أن ينصف ضحايا جرائم الذكاء الاصطناعي، ويلزم تدريب “الهيئات القضائية” على هذه الآلية”.
ماذا يقول القانون الدولي؟
يحدد أستاذ القانون الدولي، الدكتور أيمن سلامة، وقوع المسؤولية عن استخدام الذكاء الاصطناعي بشكل خاطئ عند “عدم امتثال المصممين والمطورين والناشرين للمعايير والتشريعات، سواء الدولية أو الوطنية، لضمان الأداء السليم للذكاء الاصطناعي خلال دورة حياة هذه الآليات، أي طوال مدة استخدامها”.
وأوضح سلامة أنه يمكن أن تحدث الأضرار نتيجة “بيانات التدريب المتحيزة وأخطاء النظام والمبرمجين وسوء الاستخدام والتمييز الاجتماعي”.
وأشار إلى أنه “تم تصميم معظم أنظمة الذكاء الاصطناعي لحالات استخدام محددة مسبقا، لكن قد يؤدي استخدامها بشكل مختلف إلى نتائج “غير صحيحة”، ما يلحق الضرر بالأفراد أو الأموال أو المؤسسات والمنظمات”.
غير أن أستاذ القانون الدولي لفت إلى عقبات قد تعطل إمكانية مقاضاة المسؤولين عن أنظمة الذكاء الاصطناعي، ومنها:
– الخصائص التكنولوجية المميزة لتلك التطبيقات تجعل أنظمة الذكاء الاصطناعي “غامضة وغير متوقعة”، وهو ما يعيق اكتشاف الأسباب والنتائج غير المقصودة لأي أضرار عرضية تحدثها هذه الأنظمة.
– الحداثة النسبية للذكاء الاصطناعي واستخدامه داخل المنظمات والمؤسسات والشركات، تجعل من الصعب مقارنة إقرار المسؤولية والمساءلة الدولية عن منتجي ومبرمجي ومشغلي تلك الأنظمة.