المجلة
الدولية
للقانون
جــامعـة قطـــــر
تاريخ الاستلام: 19/04/2024 تاريخ التحكيم: 01/05/2024 تاريخ القبول: 08/05/2024
أنيس العذار https://orcid.org/0009-0004-5489-0798
أستاذ القانون الخاص المساعد، كلية القانون، جامعة قطر–قطر
يهدف هذا البحث إلى دراسة ما إذا كانت قواعد المسؤولية المدنية الحالية في القانون القطري قادرة على الاستجابة للإشكاليات القانونية التي قد تنشأ عن هذه الأضرار، أم أنه من الضروري إصدار نصوص قانونية خاصة بالذكاء الاصطناعي. إن الإجابة على هذا السؤال تتوقّف على تحديد نوع الذكاء الاصطناعي المتسبّب في الضرر، لأن الحلول تختلف بحسب طبيعته. ولذا، يتعيّن التمييز بين صنفين من الذكاء الاصطناعي: الذكاء الاصطناعي الأوّلي والذكاء الاصطناعي المتقدّم. ولئن كانت القواعد الحالية للمسؤولية المدنية في القانون القطري قادرة على أن تكون أساسا للتعويض عن أضرار الذكاء الاصطناعي، إلا أن الأمر يصبح أكثر صعوبة وتعقيدا عندما يتعلّق الأمر بالذكاء الاصطناعي المتقدّم. ويرجع ذلك بالأساس إلى قدرته على التعلم الذاتي وعلى اتخاذ القرار بشكل مستقل. وهو ما يجعل قواعد المسؤولية الشيئية غير منطبقة في هذا المجال.
ويعتمد البحث على المنهج الاستقرائي التحليلي. وهو ينطلق من النصوص القانونية القطرية ليتحرّى مدى قدرتها على أن تكون أساسا قانونيا ملائما للمسؤولية عن أضرار الذكاء الاصطناعي. وقد حاول البحث تحديد مدى نجاعة النصوص القانونية الحالية في القانون القطري في حماية المتضررين من الذكاء الاصطناعي. ويبدو من الضروري اعتماد قوانين خاصة فيما يتعلق بالذكاء الاصطناعي المتقدّم.
وتكمن القيمة العلمية للبحث في أنه لم يتناول موضوع المسؤولية المدنية عن أضرار الذكاء الاصطناعي بشكل عام، مثلما هو معمول به في معظم البحوث العلمية، وإنما ركّز على القانون القطري، منطلقا من القانون المدني ومن المصادر التفسيرية عند غياب النصوص القانونية. وهو ما يُضفي على البحث جانبا عمليًا يمكن الاستلهام منه من طرف القضاة في النزاعات المعروضة عليهم.
الكلمات المفتاحية: الذكاء الاصطناعي، الروبوت، المسؤولية المدنية، المسؤولية الشيئية، المركبات ذاتية القيادة، التعلّم الذاتي
للاقتباس: العذار، أنيس. «المسؤولية المدنية عن أضرار الذكاء الاصطناعي في القانون القطري .. هل من ضرورة للتشريع؟»، المجلة الدولية للقانون، المجلد الرابع عشر، العدد المنتظم الأول، 2025، تصدر عن كلية القانون، وتنشرها دار نشر جامعة قطر. https://doi.org/10.29117/irl.2025.0315 |
© 2025، العذار، الجهة المرخص لها: كلية القانون، دار نشر جامعة قطر. نُشرت هذه المقالة البحثية وفقًا لشروط Creative Commons Attribution Non-Commercial 4.0 International (CC BY-NC 4.0). تسمح هذه الرخصة بالاستخدام غير التجاري، وينبغي نسبة العمل إلى صاحبه، مع بيان أي تعديلات عليه. كما تتيح حرية نسخ، وتوزيع، ونقل العمل بأي شكل من الأشكال، أو بأية وسيلة، ومزجه وتحويله والبناء عليه، ما دام يُنسب العمل الأصلي إلى المؤلف. https://creativecommons.org/licenses/by-nc/4.0
International
Review of Law
Qatar University
Submitted: 08/05/2024 Peer-Reviewed: 01/05/2024 Accepted: 19/04/2024
Civil Liability for Artificial Intelligence Damages in Qatari Law, Is it Necessary to Legislate?
Anis Ladhar https://orcid.org/0009-0004-5489-0798
Assistant Professor of Private Law, College of Law, Qatar University–Qatar
Abstract
This research aims to study whether the current civil liability rules in Qatari law can respond to the legal problems that may arise from these damages, or whether it is necessary to issue legal texts specific to artificial intelligence. The answer to this question depends on the type of artificial intelligence causing the harm because the solutions vary according to its nature. Therefore, a distinction must be made between two types of artificial intelligence: primary artificial intelligence and advanced artificial intelligence. Although the current civil liability rules in Qatari law can serve as a basis for compensation for artificial intelligence damages, the difficulty becomes greater regarding advanced artificial intelligence. This is mainly due to his ability to self-learn and make decisions independently.
The research relies on the inductive and analytical method. It refers to Qatari legal texts to investigate how they can be an appropriate legal basis for liability for artificial intelligence damages. The research attempted to determine the effectiveness of current legal texts in Qatari law in protecting those affected by artificial intelligence. It seems necessary to adopt special laws regarding advanced artificial intelligence.
The scientific value of the research lies in the fact that it did not address the issue of civil liability for artificial intelligence damages in general, as is done in most scientific research, but rather focused on Qatari law, starting from the civil law and interpretive sources in the absence of legal texts. This gives the research a practical aspect from which judges can draw inspiration in the disputes before them.
Keywords: Artificial Intelligence; Robot; Civil Liability; Self-Driving Vehicles; Self-Learning
Cite this article as: Ladhar, A. "Civil Liability for Artificial Intelligence Damages in Qatari Law, Is it Necessary to Legislate?," International Review of Law, Vol. 14, Regular Issue 1, 2025. https://doi.org/10.29117/irl.2025.0315 |
© 2025, Ladhar, A., licensee, IRL & QU Press. This article is published under the terms of the Creative Commons Attribution Non-Commercial 4.0 International (CC BY-NC 4.0), which permits non-commercial use of the material, appropriate credit, and indication if changes in the material were made. You can copy and redistribute the material in any medium or format as well as remix, transform, and build upon the material, provided the original work is properly cited. https://creativecommons.org/licenses/by-nc/4.0
يُعدّ الذكاء الاصطناعي من الموضوعات المُستحدثة. ورغم أن هذا المصطلح في حد ذاته ليس جديدا[1]، إلا أنه أصبح في السنوات الأخيرة حديث الساعة، بالنظر لتنامي دوره في حياتنا اليومية ولارتباطه باختصاصات متعددة ومتشابكة. ولم يعد هذا المفهوم ضربًا من الخيال العلمي، كما أنه لم يعد يُعتبر شأنا علميا بحتا، فهو يطرح إشكالات قانونية وفلسفية وأخلاقية جديدة تتطلّب حلولا خاصة. وقد دفعت التحدّيات والمخاطر التي يُمثّلها الذكاء الاصطناعي إلى ظهور مبادرات عالمية لتأطير الذكاء الاصطناعي. وقد كان الاتحاد الأوروبي سبّاقا في هذا المجال، فقد أصدر البرلمان الأوروبي في 16 فيفري 2017 توصية بشأن قواعد القانون المدني المنطبقة على الروبوتات[2]، كما وافق لاحقًا في 13 مارس 2024 على أول مجموعة من القواعد التنظيمية الأساسية لإدارة الذكاء الاصطناعي المتطور[3]. وقد يكون هذا الحراك القانوني الأوروبي حافزا لباقي دول العالم لإصدار قوانين مماثلة. من جهة أخرى، اعتمدت الجمعية العامة للأمم المتحدة في 11 مارس 2024 أول قرار حول الاستفادة من فرص الذكاء الاصطناعي المأمونة والمُؤمّنة والموثوقة لأغراض التنمية المستدامة لعام 2030[4]. وعلى مستوى الدول العربية، تعتبر دولة الإمارات العربية المتحدة من الدول الرائدة في مجال الذكاء الاصطناعي، فقد أطلقت منذ عام 2017 استراتيجية للذكاء الاصطناعي[5] ، كما تم إنشاء وزارة للذكاء الاصطناعي في نفس العام.
لقد حصل في السنوات الأخيرة تغير جذري وخطير في دور الآلة، فلم تعد مجرّد أداة طيّعة في يد الإنسان، تشكّل امتدادا له ولأفعاله، بل أصبحت تتمتع بخاصيات كانت تُعدُّ إلى وقت قريب حكرا على الإنسان، كالذكاء والقدرة على التعلّم الذاتي. وقد ظهرت في العقود الأخيرة تسميات مُستحدثة للآلة لم تكن موجودة سابقا، كالهاتف الذكي والساعة الذكية والسيارة الذكية والصواريخ الذكية. ويبدو أنه بقدر ما تكتسبه الآلة من ذكاء، بقدر ما يفقد الإنسان من ذكائه ويصبح أكثر تعويلًا على الحلول الجاهزة للأنظمة الذكية. وهو ما يدفعه إلى التخلّي شيئا فشيئا على قدراته الذهنية وقراراته لفائدة الآلة، مع ما يترتّب عليه من نتائج على المستوى القانوني.
إن دراسة المسؤولية المدنية عن أضرار الذكاء الاصطناعي لا يُعتبر من قبيل الترَف العلمي، فالذكاء الاصطناعي يُحاصرنا[6] ويواكب حياتنا اليومية دون أن نشعر بالضرورة بذلك. وهناك من يتحدّث اليوم عن ثورة صناعية رابعة[7]، مرتبطة بظهور أشكال مستحدثة وغير مسبوقة من التقنية[8]. وعلى سبيل المثال، تعتمد محركات البحث في الإنترنت بشكل كبير على الذكاء الاصطناعي، كما أن التطبيقات التي يستعملها الأفراد في التنقل داخل المدن تستعمل خوارزميات ذات علاقة بالذكاء الاصطناعي[9].
وقد أضحى قطاع النقل يعتمد أكثر فأكثر على الذكاء الاصطناعي. ولفهم مدى ارتباط الذكاء الاصطناعي بحياتنا اليومية، يمكننا استحضار مثال راكب استقل سيارة أجرة بواسطة تطبيق على هاتفه الجوال ليذهب إلى محطة مترو، يكون المترو فيها خاضعا للقيادة الذاتية[10]، ليسافر بالطائرة التي يتدخّل الطيار الآلي بشكل كبير في تحديد مسار الرحلة وفي قيادة الطائرة. وتزداد أهمية الموضوع مع ظهور السيارات ذاتية القيادة، التي أفرزت إشكاليات مرتبطة بالذكاء الاصطناعي ولها علاقة بالمسؤولية المدنية.
رغم هذه الطفرة النوعية في مجال الذكاء الاصطناعي، إلا أن الإطار القانوني للمسؤولية المدنية عن أضرار الذكاء الاصطناعي في القانون القطري يبدو محتشما. ولا ينفي هذا الأمر وجود وعي بضرورة مواكبة التطورات في هذا المجال المُستحدث. ويظهر ذلك خاصة من خلال قرار مجلس الوزراء رقم 10 لسنة 2021 بإنشاء لجنة الذكاء الاصطناعي. ومن بين مهام هذه اللجنة وضع آليات تنفيذ استراتيجية قطر للذكاء الاصطناعي[11]، ومتابعة ذلك. وتتمحور استراتيجية قطر الوطنية في مجال الذكاء الاصطناعي حول ست ركائز: التعليم والوصول إلى البيانات والعمالة والأعمال التجارية والبحوث والأخلاقيات.
إن الإجابة عن هذه الإشكاليات تتوقف على تحديد مفهوم الذكاء الاصطناعي، خاصة وأن هناك عدّة أشكال منه. ويمكن القول إن مفهوم الذكاء في حد ذاته يُعتبر من أكثر المفاهيم صعوبة في التعريف، نظرًا لاختلاف صوره وأنماطه. ويرتبط تحديد المسؤولية المدنية بشكل وثيق بطبيعة الذكاء الاصطناعي. توجد تعريفات عديدة للذكاء الاصطناعي[12]، ولكل منها منظوره الخاص. ومعظمها تقرنه ببرامج حاسوبية أو آلات قادرة على ممارسة سلوك سنعتبره ذكيا لو صدر عن البشر[13]، وتهدف إلى جعل الآلة تحاكي الإنسان أو تقوم بعمل بدلا عنه عن طريق التفكير واتخاذ القرار في بعض الأحيان[14]. وتُعرّف المادة الثالثة من قانون الذكاء الاصطناعي الأوروبي[15] الذكاء الاصطناعي بأنه «نظام آلي يهدف إلى العمل وفقا لدرجات متفاوتة من الاستقلالية، وله القدرة على التأقلم من أجل أهداف صريحة أو ضمنية، كما يمكنه استنتاج، بناء على البيانات التي يتلقاها، طريقة للوصول إلى نتائج مثل التنبؤ، وصناعة المحتوى واقتراح توصيات وحلول يمكن أن تؤثر على البيئة المادية أو الافتراضية»[16]. تُحيلنا هذه التعريفات بشكل مباشر أو غير مباشر إلى مفهوم الذكاء الإنساني. وهو في معناه العام «القدرة على الفهم والاستنتاج والتحليل والتمييز»[17].
للذكاء الاصطناعي مجالات عدة، منها مجال الألعاب ومجال النقل والمجال الطبي ومجال التصوير الفوتوغرافي[18]. وقد توسّع نطاقه مؤخرا ليشمل مجال الإفتاء الإلكتروني[19]. وعلى سبيل المثال، فقد أطلقت المملكة العربية السعودية في عام 2020 خدمة «روبوت الفتوى الإلكتروني»[20]. وهو ما يطرح تساؤلات حول حكم هذه الفتاوى الإلكترونية من الناحية الشرعية[21]. ورغم التنوّع الكبير لأشكال الذكاء الاصطناعي[22]، إلا أن تحديد المسؤولية المدنية عن أفعاله يستدعي استحضار شكلين رئيسيين له، يُحدّدان طبيعة المسؤولية المدنية التي يمكن اعتمادها في مواجهة ما قد يُسبّبه من أضرار. يمكن أن يأخذ الذكاء الاصطناعي شكلين رئيسيين. الشكل الأول يُعرف بالذكاء الاصطناعي الأوّلي، أو الضيّق[23].
هذا الشكل من الذكاء الاصطناعي يسمح لنظام الذكاء الاصطناعي بالامتثال للأوامر التي يتلقاها. وفي هذه الصورة لا يتمتع نظام الذكاء الاصطناعي باستقلالية كاملة، وهو يخضع ولو بشكل جزئي لإرادة الشخص الطبيعي. الشكل الثاني للذكاء الاصطناعي، هو الذكاء الاصطناعي المتقدّم[24]. يُعتبر هذا الشكل من الذكاء الاصطناعي أكثر تعقيدا، كما أنه يطرح صعوبات وإشكاليات أكثر، ففي هذا الشكل تكون لأداة الذكاء الاصطناعي استقلالية في اتخاذ القرار وقدرة على تقدير الأمور شبيهة بقدرات الإنسان، بفضل تقنية التعلّم الآلي[25] وتحسين الأداء بشكل ذاتي. وفي هذا النوع من الذكاء الاصطناعي لا يقتصر الأمر على محاكاة الذكاء الإنساني، بل يتجاوزه ويستقل عنه أحيانا. ويترتّب عن ازدواجية صور الذكاء الاصطناعي اختلاف الحلول القانونية المُتّبعة في مواجهة أضراره.
شهدت الآونة الأخيرة اهتمامًا متزايدًا بموضوع المسؤولية عن أضرار الذكاء الاصطناعي. وقد تمت مراجعة عدة دراسات تناولت هذا الموضوع، منها:
دراسة محمد إبراهيم حسانين (2023)، «الذكاء الاصطناعي والمسؤولية المدنية عن أضرار تطبيقه - دراسة تحليلية تأصيلية». تناولت الدراسة مفهوم الذكاء الاصطناعي وخصائصه وأنواعه، كما تناولت أنواع المسؤولية المدنية. واقترح الباحث أسسا قانونية للمسؤولية عن أضرار الذكاء الاصطناعي تمحورت بشكل رئيسي حول القانون المصري.
دراسة محمد الشرايري (2022)، «المسؤولية المدنية الذكية عن أضرار الذكاء الاصطناعي: دراسة مسحية مقارنة». تناولت هذه الدراسة أزمة الذكاء الاصطناعي وأثرها على نظرية الالتزام ونظرية الحق. وقد ركّزت على القانون الأردني، وخلصت إلى عجز نظرية الخطأ عن مواجهة أضرار الذكاء الاصطناعي، داعية إلى اعتماد النظرية الموضوعية.
ويكمن اختلاف البحث مع الدراسات السابقة، في أنه ركّز على القانون القطري وانطلق منه، محاولا الوقوف على نقاط القوة ونقاط الضعف في التشريع واقتراح حلول قانونية عملية للإشكاليات الناجمة عن الذكاء الاصطناعي.
يسعى البحث إلى الإجابة على الإشكالية التالية: إلى أي مدى يمكن للقواعد العامة للمسؤولية المدنية في القانون القطري أن تكون أساسًا قانونيًا ملائما لمواجهة أضرار الذكاء الاصطناعي؟
تتطلّب الإجابة عن هذا السؤال التمييز بين نوعين من الذكاء الاصطناعي، الذكاء الاصطناعي الأوّلي. وهذا الصنف من الذكاء الاصطناعي ليس مستقلا بشكل كامل عن الانسان، والذكاء الاصطناعي المتقدّم وهو الذي يطرح مشاكل عملية أكثر تعقيدًا بالنظر إلى ما يتمتّع به من استقلالية في اتخاذ القرار.
اتّبع البحث المنهج الاستقرائي التحليلي، معتمدا في المقام الأول على النصوص القانونية القطرية، مع إثراء الدراسة بالتوجهات الحديثة في القانون المقارن. ويستعرض البحث في مرحلة أولى نجاعة القواعد العامة للمسؤولية إزاء أضرار الذكاء الاصطناعي الأوّلي (المبحث الأول) وفي مرحلة ثانية محدودية القواعد العامة للمسؤولية إزاء أضرار الذكاء الاصطناعي المتقدّم (المبحث الثاني).
يُضفي الطابع المُجرّد للقاعدة القانونية مرونة على أحكامها. وقد لا يتناول القانون عند صدوره بعض المسائل الشائكة، لعدم وجودها عند صدوره. وينطبق هذا على الذكاء الاصطناعي، الذي يُعتبر من المواضيع المُستحدثة على مستوى القانون. رغم ذلك، يمكن أن نجد في النصوص القانونية الحالية أساسا قانونيا مباشرا للمسؤولية عن أضرار الذكاء الاصطناعي (المطلب الأول)، كما يمكن اللجوء إلى أسس قانونية غير مباشرة للمسؤولية عن أضرار الذكاء الاصطناعي (المطلب الثاني).
تتمثّل الأسس القانونية المباشرة للمسؤولية عن أضرار الذكاء الاصطناعي في المسؤولية عن فعل الأشياء (الفرع الأول)، بالإضافة إلى المسؤولية عن الفعل الشخصي (الفرع الثاني)، ومسؤولية المتبوع عن فعل التابع (الفرع الثالث).
تبدو المسؤولية المدنية عن فعل الأشياء أساسا قانونيا ملائما يمكن اعتماده فيما يتعلّق بالأضرار الناجمة عن الروبوتات[26] أو السيارات ذاتية القيادة طالما كانت تخضع، ولو نسبيا، لسلطة السائق. وتُلزم المادة 212 من القانون المدني القطري من يتولى حراسة أشياء تتطلّب عناية خاصة بالتعويض عن الأضرار التي تسبّبها. وقد حدّدت الفقرة الثانية من هذه المادة هذه الأشياء: «وتُعتبر من الأشياء التي تتطلب عناية خاصة لمنع وقوع الضرر منها السيارات والطائرات والسفن وغيرها من المركبات، والآلات الميكانيكية، والأسلحة والأسلاك والمعدات الكهربائية، والحيوانات والمباني، وكل شيء آخر يكون بحسب طبعه أو بحسب وضعه مما يُعرّض للخطر».
إن ما يُميّز الأحكام الخاصة بالمسؤولية الشيئية في القانون المدني القطري، مقارنة ببعض القوانين المُقارنة[27]، هو الدقة والإسهاب في تناولها لهذه المسؤولية. وقد وردت صياغة المادة 212 من القانون المدني القطري عامة دون اقتصار على أشياء محددة دون سواها. والأصل أنه إذا كانت عبارة النص مطلقة جرت على إطلاقها. وبالتالي، ليس هناك ما يحول دون تطبيق أحكام المسؤولية الشيئية على الأضرار الناجمة عن الروبوتات أو المركبات التي لا تتمتع باستقلالية كاملة في التحرك أو في اتخاذ القرار.
ومن ناحية عملية، تتجه معظم المخاوف فيما يتعلّق بالأضرار الناجمة عن الذكاء الاصطناعي نحو السيارات ذاتية القيادة[28]. وما يغذّي هذا التوجّس هو التزايد المُطّرد لدور الذكاء الاصطناعي في مجال تنقل السيارات. نظريا، يمكن أن يساهم ازدهار صناعة السيارات ذاتية القيادة في تقليص عدد حوادث المرور، فقد أقرّت بعض الإحصائيات بأن أكثر من 90% من حوادث المرور هي بفعل الإنسان[29]. ولكن يبدو أن التعويل على السيارات ذاتية القيادة لن يكون آمنا بالشكل الذي نتوقّعه، وذلك بالنظر إلى لحوادث المرورية التي ترتكبها من حين لآخر[30].
رغم ذلك، فإن النظام القانوني لمعظم التشريعات الحالية في العالم يشكو شغورا في التقنين. وهو أمر يدعو إلى القلق، نظرا لأن السيارة، خلافا للروبوت، من الآلات المُلازمة لنا في حياتنا اليومية كما أنها من أكثر الأشياء خطرا على حياتنا بالنظر إلى عدد ضحايا حوادث المرور سنويا. وقد ظهرت بالفعل بوادر هذا الخطر في 18 مارس 2018 حينما تسبّبت سيارة ذاتية القيادة في قتل مترجّلة أمريكية في ولاية أريزونا عندما كانت بصدد قطع أحد الشوارع متعدّدة المسارات[31].
ويتطلّب تحديد مسؤولية السائق الذي يستقل السيارة ذاتية القيادة، تحديد مستوى ذاتية القيادة لدى المركبة. وتوجد خمسة مستويات لقيادة السيارة. المستوى صفر، الذي ينطبق على السيارات الكلاسيكية التي تفتقد الأتمتة كليا. والمستوى الأول، الذي ينطبق على السيارات التي بها الحد الأدنى من الأتمتة. والمستوى الثاني الذي ينطبق على السيارات التي تتضمن أتمتة للوظائف المُدمجة. وينطبق المستوى الثالث على المركبات ذات القيادة بشكل جزئي، في حين ينطبق المستوى الرابع على السيارات ذاتية القيادة كليا[32].
وباستثناء المستوى الرابع، الذي تتمتع فيه المركبة بذاتية القيادة الكاملة، الشيء الذي يجعل إمكانية قيام مسؤولية السائق أمرا صعبا[33] بالنظر لاستقلالية السيارة[34]، فإن الحالات الأخرى يمكن أن تخضع لأحكام المسؤولية عن فعل الأشياء، نظرا للدور الذي يلعبه السائق في توجيه السيارة والتحكّم فيها. ولا شيء يمنع من تطبيق أحكام المسؤولية عن فعل الأشياء، طالما أن الآلة أو السيارة تخضع، ولو بشكل جزئي، إلى توجيه شخص طبيعي. ولا ينحصر مجال انطباق المسؤولية عن فعل الأشياء على السيارات التي تتمتّع بأتمتة على مستوى القيادة، بل يمكن أن يشمل الروبوتات الطبية والروبوتات الصناعية التي تخضع ولو جزئيًا لحراسة شخص طبيعي.
ويمكن القول بأن الصيغة المرنة للمادة 212 من القانون المدني القطري تسمح باستيعاب عدد كبير من الآلات التي يمكن أن تُعرّض الغير للخطر. وقد وردت الأمثلة في هذه المادة على سبيل الذكر لا الحصر. وطالما أن استعمال الآلة يتطلب عناية خاصة، وطالما أنها مصدر محتمل للمخاطر للغير، فإن الآلة التي تعمل بتقنية للذكاء الاصطناعي يمكن أن تكون سببا في إقامة مسؤولية الحارس. ويُطرح هنا التساؤل حول طبيعة الحراسة التي يمكن على أساسها إقرار المسؤولية للشخص الطبيعي. هل تنطبق الحراسة على مالك الآلة الذكية أم على حائزها، بقطع النظر عن ملكيتها؟
تاريخيًا، تردّد الفقه والقضاء الفرنسي بين نظرية الحراسة القانونية[35] والحراسة الفعلية[36]. ونظرا لما تُشكّله نظرية الحراسة القانونية من مخاطر وما قد تؤول إليه من إجحاف بمالك الشيء[37]، فقد تخلّى القضاء الفرنسي عن هذه النظرية في القرار الصادر عن الدوائر المجتمعة في 2 ديسمبر 1941[38]. ويبدو أن التوجه العام لدى القضاء هو الأخذ بنظرية الحراسة الفعلية[39].
وعلى مستوى القوانين المقارنة، تتفاوت الحلول التشريعية بتفاوت دور الذكاء الاصطناعي في هذه الدول. ويصعب وجود تشريعات خاصة بالذكاء الاصطناعي في بلدان لا يلعب فيها هذا الأخير دورا يُذكر. ويعتبر القانون الألماني من القوانين السبّاقة فيما يتعلّق بالتقنين الخاص بالمركبات ذاتية القيادة، وقد ذهب إلى إنشاء لجنة للأخلاقيات أوكل إليها مهمة النظر في الإشكاليات الأخلاقية الناشئة عن استعمال السيارات الذكية.
لقد أقر المشرع الألماني في 13 ماي 2017 قانونًا يسمح بتجربة السيارات ذاتية القيادة على الطريق العام. واشترط هذا القانون، في مرحلة أولى، وجود شخص خلف المقود حتى يتمكّن من استرجاع القيادة في الحالات الطارئة[40]. وبذلك فإن القانون الألماني يسمح بإقرار مسؤولية السائق عن حوادث المركبات ذاتية القيادة عندما يستدعي منه نظام القيادة الذاتية الأخذ بزمام الأمور[41].
تعمل عديد الدول الأوروبية على الأخذ بعين الاعتبار في تشريعاتها المرورية السيارات ذاتية القيادة أو ذات التفويض في القيادة، على غرار القانون الفرنسي[42] والقانون الإيطالي[43] والقانون البريطاني[44]. وبالنسبة للقوانين العربية، فإنها تبدو غير معنيّة بمسألة المركبات ذاتية القيادة، باستثناء تشريعات نادرة، على غرار ما أقرّه القانون الإماراتي حينما نص في القانون رقم 9 لسنة 2023 بشأن تنظيم تشغيل المركبات ذاتية القيادة في إمارة دبي والذي يهدف في المادة 4/2 إلى تنظيم تشغيل المركبات ذاتية القيادة في إمارة دبي وفقا لمتطلّبات السلامة والجودة.
إن المسؤولية عن فعل الأشياء يمكن أن تُشكّل أساسا قانونيا ملائما بالنسبة للأضرار الناجمة عن الآلات الذكية، طالما كان هناك قدر من التدخّل البشري في عمل الآلة الذكية أو الروبوت. وتكمن أهمية هذه المسؤولية في عدم إمكانية التفصّي منها إلا بإثبات أن الضرر وقع بسبب أجنبي لا يد للشخص فيه، وهو ما يُعزّز حظوظ المتضرر في التعويض.
ورغم ذلك، فإن الأمر لا يخلو من صعوبات وتعقيد، فقد يكون من الصعب تحديد المتسبب في حصول الضرر، بالنظر للصعوبات التقنية في تحديد ذلك، كما قد يكون الضرر الناجم عن فعل الأشياء نتيجة لتداخل قرارات البشر مع أفعال الآلة. وبالتالي، يتعيّن التطرّق إلى المسؤولية عن الفعل الشخصي عن الأضرار المرتبطة بالذكاء الاصطناعي.
تخضع الأضرار الناجمة عن الذكاء الاصطناعي، والتي لا تنطبق عليها أحكام المسؤولية الشيئية إلى المسؤولية عن الفعل الشخصي. ورغم أن هناك من يطرح مسألة إقرار الشخصية القانونية للذكاء الاصطناعي[45]، إلا أن هذا الأمر لم يجد له تطبيقا في الواقع إلى حد الآن. ويمكن تأسيس المسؤولية المدنية عن أضرار الذكاء الاصطناعي في القانون القطري على الخطأ فيما يتعلّق بالمسؤولية التقصيرية (أولًا) أو على أساس الإخلال بالتزام تعاقدي في نطاق المسؤولية العقدية (ثانيًا).
رغم الفائدة العملية للمسؤولية الشيئية، فيما يتعلق بالمسؤولية المدنية عن أضرار الذكاء الاصطناعي، إلا أنها تنطبق حصريا على الأشياء المادية المحسوسة والتي تُشكل خطرا[46] على السلامة الجسدية للشخص، كالسيارات والآلات الميكانيكية والمعدات الكهربائية. وهو ما يُقصي من مجال انطباقها الأشياء التي لا تسبب أضرارا مادية. بالنسبة لهذا الصنف من الضرر، الذي يُنسب إلى الشخص وليس إلى الآلة، فإن المسؤولية المدنية تقوم على أساس الفعل الشخصي وليس على أساس فعل الأشياء.
يُقيم القانون القطري كقاعدة عامة المسؤولية المدنية على أساس الخطأ[47] والضرر والعلاقة السببية، على غرار القانون الفرنسي[48] ومعظم القوانين العربية،. وتنص المادة 199 من القانون المدني على أن: «كل خطأ سبب ضرراً للغير يُلزم من ارتكبه بالتعويض». ولا شك في أن نظرية الخطأ تسمح بعقلنة المسؤولية من خلال إسنادها إلى إرادة واعية، تتحمل تبعات إخلالها بالالتزام المحمول عليها[49]. وقد أشاد جانب من الفقه الفرنسي بفضائل الخطأ على مستوى المسؤولية المدنية[50]. وبالفعل، يبدو من الصعب التخلي بشكل كامل عن نظرية الخطأ، رغم ما تطرحه من صعوبات وهنّات في المجتمعات المعاصرة. رغم ذلك، فقد ظهرت محدودية نظرية الخطأ مع نهاية القرن التاسع عشر، الذي تزامن مع ظهور الثورة الصناعية.
ظهرت للعيان محدودية نظرية الخطأ أمام الأضرار الناجمة عن استعمال الآلات الصناعية[51]. وقد أدى ضعف ومحدودية نظرية الخطأ فيما يتعلّق بتعويض الأضرار التي كانت تلحق بالعمال والتي لم تكن بالإمكان نسبتها إلى خطأ للشخص، إلى ظهور نظرية المخاطر[52]. ورغم ذلك، فقد حافظ الخطأ على مكانته كأساس مبدئي للمسؤولية المدنية. ولكن ذلك لم يمنع من التقليص من حدّة مفهوم الخطأ؛ حيث لم يعد العنصر المعنوي شرطا من شروطه.
ولم ينحصر التخلي عن العنصر المعنوي في القانون الفرنسي[53]؛ إذ نجد لهذا البُعد الموضوعي للخطأ أثرا في القانون القطري. وتنص المادة 200 من القانون المدني على ما يلي:
«1- يكون الشخص مسئولاً عن أعماله غير المشروعة متى صدرت منه وهو مميز.
2- ومع ذلك إذا وقع الضرر من شخص غير مميز ولم يكن هناك من هو مسئول عنه، أو تعذر الحصول على تعويض من المسئول، جاز للقاضي أن يلزم من وقع منه الضرر بتعويض عادل، مراعياً في ذلك مركز الخصوم».
وبالتالي، يمكن قيام المسؤولية المدنية، بشكل احتياطي، عن الأعمال غير المشروعة في غياب التمييز. ويبدو أن القانون المدني القطري قد تأثر بالنظرة الموضوعية للخطأ[54]، التي انتهجها من قبله القانون المصري في المادة 164 من القانون المدني. ويُمكن بذلك إقرار الخطأ في جانب المتسبّب في الضرر إذا ما توفر الركن المادي، دون اشتراط الركن المعنوي المتمثل في الإدراك والتمييز[55]. ويتناغم هذا الحل مع ما تشهده المسؤولية المدنية في العقود الأخيرة من تطوّر في اتجاه الاهتمام بتعويض المتضرر دون ارتهان هذا التعويض في ثبوت تمييز المتسبب في الضرر. وقد انتهج القانون الفرنسي هذا الحل منذ سنة 1968، حين نُقّحت الفقرة 2 من المادة 489 من المجلة المدنية، مما سمح بإقرار المسؤولية المدنية للمجنون والصغير غير المميّز عن أفعالهما الضارة[56].
يمكن تأسيس المسؤولية المدنية عن أضرار الذكاء الاصطناعي على أساس الإخلال بالتزام تعاقدي ذي صبغة موضوعية (1)، كما يمكن تأسيسها على الإخلال بواجب ضمان عيوب المُنتَج في إطار حماية المستهلك (2).
1- الصبغة الموضوعية للإخلال بالالتزام التعاقدي:
خلافا للمسؤولية التقصيرية التي تخضع كمبدأ عام لنظرية الخطأ، فإن المسؤولية التعاقدية يمكن أن تقوم في غياب خطأ من المدين بالالتزام التعاقدي. وتنص المادة 251 من القانون المدني القطري على أنه: «1- في الالتزام بعمل، إذا لم يقم المدين بتنفيذ التزامه، جاز للدائن أن يطلب إذنا من القاضي في تنفيذ الالتزام على نفقة المدين إذا كان ذلك ممكنًا».
ووفقا لأحكام المادة 256 من القانون المدني القطري، لا يمكن إعفاء المدين من الالتزام إلا إذا كان عدم التنفيذ أو التأخير فيه «لسبب أجنبي لا يد له فيه»، مما يعني أن غياب الخطأ في جانب المدين بالالتزام لا يعفيه من تحمل المسؤولية. وكذلك الحال في مجال الاتفاق على تحمل المدين نتائج القوة القاهرة، حيث ينعدم الخطأ. وهذا ما ورد بالمادة 258 من القانون المدني القطري التي تجيز الاتفاق على أن يتحمل المدين نتائج القوة القاهرة أو الحادث الفجائي.
رغم ذلك، تجب الإشارة إلى أن إثبات الخطأ يصبح ضروريا بالنسبة للمتضرر إذا كان التزام المدين ببذل عناية، كما هو الحال في عقد العلاج. ويُمكن اعتماد الأحكام العامة للمسؤولية كأساس للمسؤولية المدنية عن أضرار الذكاء الاصطناعي كلما كان الضرر الناشئ عنه مرتبطا بالتزام تعاقدي. ومن أمثلة ذلك إلزام شركة تعهّدت بإعداد دراسة لفائدة أحد عملائها، معتمدة في ذلك على الذكاء الاصطناعي، بالتعويض عن الضرر الذي تسبّبت فيه.
من جهة أخرى، يمكن اعتماد الالتزامات التبعية[57] للعقد، كأساس للمسؤولية التعاقدية عن الأضرار الناجمة عن الذكاء الاصطناعي. وقد توسّع فقه القضاء الفرنسي في مفهوم الإخلال بالالتزام التعاقدي[58] من خلال اعتماد المادة 1135 من المجلة المدنية الفرنسية[59]، وأقر مسؤولية المتعاقد في صورة إخلاله بواجب السلامة أو واجب الإعلام.
وقد تضمّن القانون المدني القطري مادة مشابهة، فقد ورد في المادة 172 فقرة 2 من القانون المدني القطري «ولا يقتصر العقد على إلزام المتعاقد بما ورد فيه، ولكن يتناول أيضا ما هو من مستلزماته، وفقا للقانون والعرف والعدالة بحسب طبيعة الالتزام». وبالتالي، يمكن إقرار المسؤولية المدنية عن أضرار الذكاء الاصطناعي على أساس الإخلال بالتزام تعاقدي كلما وُجدت رابطة تعاقدية في النزاع. ولمزيد تعزيز حظوظ المتضرر من فعل الذكاء الاصطناعي، يمكن التوسّع في المسؤولية التعاقدية لتشمل كذلك الإخلال بواجب ضمان عيوب المنتج.
2- الإخلال بواجب ضمان عيوب المُنتج في إطار حماية المستهلك:
يمكن أن يكون الضرر الناشئ عن الذكاء الاصطناعي نتيجة لعيب في المُنتج. وقد يتجسّد ذلك في وجود عيب في الخوارزميات أو خلل في طريقة تصنيع الآلة الذكية أو في برنامج توجيهها. ولا شيء يمنع من اعتماد القواعد الخاصة بضمان عيوب المبيع لقيام مسؤولية بائع المُنتج المعيب إذا كان من المنتجات التي يدخل الذكاء الاصطناعي في تكوينها أو عملها. وتُلزم المادة 455 من القانون المدني القطري البائع بضمان العيوب الخفية حتى «ولو لم يكن عالما بوجودها». وهو ما يقيم مسؤولية موضوعية تجاه البائع، لا يمكن إعفاؤه منها بمجرد إثبات حسن نيته.
ولا ينحصر مجال الحماية في القواعد العامة للقانون المدني، بل نجد تعزيزا لها في قانون حماية المستهلك الذي يمكن اعتماده فيما يتعلق بالأضرار الناجمة عن الذكاء الاصطناعي. وتُلزم المادة 13من قانون حماية المستهلك المزود بضمان جودة السلعة وتوفر المواصفات المعلن عنها أو المتفق عليها مع المستهلك، كما تُلزمه المادة 12 بضمان العيوب الخفية التي تنقص من قيمة السلعة أو تجعلها غير صالحة للاستعمال.
ورغم ما تتيحه هذه الأحكام من حماية للمستهلك المتضرر من المنتَج، الذي قد يكون ذا علاقة بالذكاء الاصطناعي، إلا أنها لا تحل سوى جزء من المشكلة، فالأضرار قد تحصل في غياب أي عيب في المُنتج، وإنما في إخلال الذكاء الاصطناعي بضوابط مجتمعية أو أخلاقية أو قانونية، مثل قيام برنامج معلوماتي بمعالجة بيانات ومعطيات شخصية تكتسي خصوصية تمنع تداولها أو معالجتها دون علم أصحابها أو موافقتهم. وفي مجال حماية المستهلك هناك تطور مهم في مجال المسؤولية العقدية أخذت به بعض التشريعات، بحيث رتبت المسؤولية على عاتق الشخص المنتج إذا أصيب المستهلك بضرر ناجم عن استخدام سلعة معينة ولو لم تربطه به علاقة تعاقدية. ومن هذه القوانين على سبيل المثال نجد القانون المدني الجزائري الذي نص في المادة 140 مكرر بموجب تعديل2005 على ما يلي: «يكون المنتج مسؤولًا عن الضرر الناتج عن عيب في منتوجه حتى ولو لم تربطه بالمتضرر علاقة تعاقدية»[60].
يطرح تحديد الشخص المسؤول عن أضرار الذكاء الاصطناعي مشاكل عملية نظرا لتعدد الأشخاص ولتداخل المسؤوليات الممكنة فيما يتعلق بهذه الأضرار. فإذا ما أخطأ طبيب موجود في دولة قطر في التشخيص بالاعتماد على برنامج حاسوبي لتشخيص الأمراض يعمل بالذكاء الاصطناعي وترتّبت على التشخيص الخاطئ وفاة المريض، فإن تحديد الشخص المسؤول عن هذه الوفاة لن يكون سهلا. فقد يُعزى الخطأ في التشخيص إلى ضعف أو خلل في البرنامج الحاسوبي، وقد يُعزى إلى الطبيب الذي اكتفى باعتماد التشخيص الصادر عن البرنامج الحاسوبي دون التثبت منه أو إلى المصحة التي يعمل بها الطبيب إذا لم تقم بتحديث المعطيات أو البيانات الخاصة بالبرنامج. ويمكن كذلك أن تقوم مسؤوليتها عن المهني الذي يعمل لديها على أساس مسؤولية المتبوع عن فعل التابع. وقد طُرح إشكال مشابه في حادث طيران يتعلق بالتداخل بين مسؤولية الطيارين الذين عجزوا عن التحكم في الطيار الآلي ومسؤولية شركة الطيران بوينج في قضية سقوط طائرة بوينج 737 max الأثيوبية[61].
ينص القانون المدني القطري في الفقرة الأولى من المادة 209 على أنه: «1- يكون المتبوع مسؤولا عن الضرر الذي يحدثه تابعه بعمله غير المشروع، متى كان واقعا منه حال أداء وظيفته أو بسببها». وقد تعدّدت الآراء بخصوص الأساس القانوني لهذه المسؤولية بين فكرة تحمل التبعة، وقاعدة الغرم بالغنم، والضمان القانوني، والراجح أنها تؤسس على فكرة الضمان القانوني. ويمكن اعتماد مسؤولية المتبوع عن فعل التابع كأساس للمسؤولية في القضايا التي يخضع فيها التابع لرقابة وإشراف المتبوع، مثلما هو الأمر بالنسبة للأجير الذي يعمل في شركة. وهو ما يسمح بتعزيز حظوظ المتضرر في الحصول على تعويض.
تُشكّل المسؤولية الشيئية والمسؤولية عن الفعل الشخصي، والمسؤولية العقدية، ومسؤولية المتبوع عن فعل التابع، أساسا ممكنا للمسؤولية المدنية عن أضرار الذكاء الاصطناعي. رغم ذلك، يمكن التوسع في أسس المسؤولية المدنية من خلال اعتماد أسس قانونية غير مباشرة.
رغم أن القانون القطري لم يتناول صراحة مسالة الذكاء الاصطناعي، إلا أنه من الممكن تقصّي الحلول عن طريق مجهود تأويلي للنصوص القانونية الموجودة عن طريق القياس على المسؤولية على فعل الحيوان بالنسبة لأضرار الروبوتات (أولًا) وعن طريق اعتماد تصور موضوعي للمسؤولية المدنية عن أضرار الذكاء الاصطناعي بالاستلهام من أحكام الشريعة الإسلامية (ثانيًا).
تنضوي المسؤولية عن فعل الحيوان تحت المسؤولية عن فعل الأشياء. ولكنها مسؤولية من نوع خاص. وتنص المادة 212 من القانون المدني القطري في فقرتيها الأخيرتين «3- وتبقى الحراسة ثابتة للحارس، حتى ولو ضل الحيوان أو تسرّب. 4- ومع ذلك لا يكون الحارس مسؤولا إذا وقع الضرر في الأماكن التي يُطلق فيها الحيوان للرعي بغير سيطرة عليه». رغم تنصيص هذه المادة على المسؤولية عن فعل الحيوان كمبدأ عام، حتى في صورة ضياعه أو تسرّبه، إلا أنها تسمح بإعفاء الحارس من المسؤولية عندما يُطلق الحيوان للرعي بغير سيطرة منه. وهو حل منطقي ومطابق لقواعد العدالة، فلا يُعقل أن نُلزم راعي قطيع من الأغنام بأن يتعقّب كل أفراد ماشيته عند رعيها في البراري. ورغم الاختلاف بين الحيوان والروبوتات، إلا أن كليهما يشترك في توفّر خاصية الذكاء، بدرجات متفاوتة، والقدرة على اتخاذ القرار، ولو نسبيا. مع الأخذ بعين الاعتبار أن الذكاء الذي يمكن أن يتمتع به الحيوان هو موهبة إلهية، خلافا للذكاء الذي يتمتع به الروبوت. ولعل هذا التشابه هو ما دفع البعض إلى اقتراح القياس على المسؤولية عن فعل الحيوان فيما يتعلق بالمسؤولية عن فعل الروبوت[62].
يشهد استعمال الروبوتات تطورا كبيرا في العالم، خاصة في مجال تصنيع السيارات والمجال الصحي. وهو ما يكسو دراسة المسؤولية عن الأضرار الناجمة عن فعل الروبوت أو الإنسآلة أهمية عملية[63]. وفي ظل غياب نظام قانوني للروبوتات في القانون القطري، يمكن استلهام الحلول من الأحكام الخاصة بالمسؤولية عن فعل الحيوان. ورغم أن الحيوان، من منظور قانوني، يُعدُّ من الأشياء، إلا أنه شيء ذو طبيعة خاصة.
وقد كان المشرّع الفرنسي واعيا بهذه الخصوصية عندما أقر في تعديله للمادة 515-14 من المجلة المدنية بأن الحيوانات كائنات حية ذات إحساس. وقد يكون من الأجدى أن يعتمد قاضي الموضوع في نزاع قضائي يتعلق بأضرار ناجمة عن الذكاء الاصطناعي القياس على الحكم الذي قرّره المشرع فيما يتعلق بالمسؤولية عن فعل الحيوان وإعفاء الحارس الفعلي للآلة الذكية من المسؤولية إذا أثبت أن الروبوت أو الآلة الذكية كانت في وضعية لا تمكنه فيها السيطرة عليها، بالنظر لطبيعة المهمة الموكلة إليها.
وتبدو المسؤولية عن فعل الحيوان أكثر مرونة من المسؤولية عن فعل الأشياء الأخرى، والتي ورد ذكرها في الفقرة 2 من المادة 212 من القانون المدني القطري، فحارس الحيوان يمكن إعفاؤه من المسؤولية في حالة إطلاقه الحيوان للرعي، في حين أن الأشياء الأخرى لا يُعفى فيها الحارس إلا إذا ما أثبت أن الضرر كان بسبب أجنبي لا يد له فيه. من جهة أخرى، يمكن للقاضي استلهام الحلول من أحكام الشريعة الإسلامية التي تعتبر مصدرا من المصادر التأويلية في القانون القطري.
لا يسمح الإطار القانون الحالي للمسؤولية المدنية بإقرار المسؤولية الموضوعية في مجال الذكاء الاصطناعي كمبدأ عام، فالقانون المدني القطري ينص على الخطأ كأساس مبدئي للمسؤولية. وتجب الإشارة إلى أن القانون المدني القطري اعتمد مفهوما مرنا للخطأ، فالمادة 200 في فقرتها الثانية تُجيز تحميل المجنون والصغير غير المميز مسؤولية أفعالهما طالما لم يكن هناك من يتحمل مسؤولية هذه الأفعال. وهو ما يُعد تكريسا للخطأ الموضوعي الذي يقوم في غياب إدراك التعدي. وذلك خلافا لبعض التشريعات العربية التي لا تُجيز ذلك[64]. ولا يخفى أن نظرية الخطأ، التي تم استلهامها من القانون الفرنسي، تجد جذورها التاريخية في القانون الكنسي، خلافا للفقه الإسلامي الذي يعتمد تصورا موضوعيا للمسؤولية عن طريق ضمان نتائج الفعل الضار. ويهتم الفقه الإسلامي بإزالة الضرر أكثر من اهتمامه بتعقّب المخطئ. ومن بين القواعد الفقهية قاعدة الضرر يزال.
وفي غياب تشريع خاص بالمسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي، يمكن اللجوء إلى الشريعة الإسلامية التي تُعتبر من الوسائل التي يمكن للقاضي اعتمادها عند غياب النص القانوني، وفقا للمادة الأولى من القانون المدني القطري التي تسمح باللجوء للشريعة الإسلامية في صورة غياب النص القانوني. وتُقر الشريعة الإسلامية نظرة موضوعية للمسؤولية، وهناك من يعتبر أنها تأخذ بنظرية تحمّل التبعة[65]، فهي لا تُقيم المسؤولية على الخطأ وإنما على الضرر. وقد جاء في المادة 916 من مجلة الأحكام العدلية التي تُعتبر تقنينا للمذهب الحنفي بأن الصبي مُلزم بالضمان من ماله الخاص إذا أتلف مال غيره. وإذا لم يكن له مال، تقع المسؤولية على وليه أو وصيّه.
لئن كانت القواعد العامة للمسؤولية قادرة على تقديم حلول للمشاكل الناجمة عن أضرار الذكاء الاصطناعي الأوّلي، إلا أنها تبدو عاجزة أمام الإشكاليات القانونية الناجمة عن الذكاء الاصطناعي المتقدّم.
تبدو القواعد العامة للمسؤولية محدودة الفاعلية إزاء الأضرار الناجمة عن الذكاء الاصطناعي المتقدّم بالنظر إلى خصوصيّته (المطلب الأول) وبالنظر إلى خصوصية الحل التشريعي المطلوب (المطلب الثاني).
من بين الإشكاليات التي تهدّد ديمومة القاعدة القانونية، عجزها عن مواكبة تطور المجتمع. وينطبق ذلك على مجال التكنولوجيا، حينما يجد المشرع أو القاضي نفسه في «وضعية محرجة»[66] نتيجة غياب التشريع. وتنشأ اليوم عند استعمال البرمجيات المعلوماتية الحديثة وضعيات جديدة لم تأخذها النصوص القانونية في الحسبان. وينطبق هذا الإشكال بشكل كبير على الذكاء الاصطناعي الذي بيّن قصور المسؤولية المدنية أمام هذا القادم الجديد. وتبرز خصوصية الذكاء الاصطناعي المتقدّم من خلال قدرته على التعلم الذاتي (أولًا) واستقلاليته في اتخاذ القرار (ثانيًا) بالإضافة إلى صعوبة إدماج القواعد الأخلاقية في أنظمة الذكاء الاصطناعي (ثالثًا).
تُعد القدرة على التعلّم الذاتي أهم خصائص الذكاء الاصطناعي. وهو ما يعطيه تفوقا ونجاعة عملية في الحلول التي يهتدي إليها، فالتعلم يُكتسَب بصورة أساسية من التجربة والممارسة أكثر مما يأتي من الاستدلال لوحده[67]. وللقدرة على التعلّم عدة مزايا، أشار إليها قرار البرلمان الأوروبي الصادر في 16/12/2017 [68]. ورغم ما يسمح به ذلك من تحسين القدرة على تحليل البيانات إلا أنه يخلق تحدّيات جديدة فيما يتعلّق بضمان عدم التمييز والشفافية وحيادية اتخاذ القرار[69]. وتتطلّب القدرة على التعلّم الذاتي تجميع عدد هائل من البيانات، التي يستغلها الذكاء الاصطناعي في التعلّم الذاتي وفي تنمية قدرته على الفهم وتحسينها.
وخلافا للبشر، الذي يميل إلى التعب والملل من التعلّم، فإن الذكاء الاصطناعي يعمل بلا كلل ولا ملل، طالما كان موصولا بمصدر للطاقة. وهو ما يجعله قادرا على معالجة ملايين البيانات في أجزاء من الثانية. وفي كل مرة يُعالج فيها النظام البيانات فإنه يقوم بتقييم عمله من أجل تطويره وتحسينه في المستقبل. هذه القدرة على تحسين الأداء، يمكن أن تتجاوز، وبشكل كبير، قدرة الشخص الطبيعي.
وتطرح القدرة على التعلّم الذاتي إشكاليات قانونية وأخلاقية، فالأمر يتطلّب تجميع كم هائل من البيانات. ومعظم هذه البيانات يتّسم بالخصوصية وبعدم تفطّن الشخص في معظم الحالات إلى أن الآلة الذكية بصدد تجميع هذه البيانات. ويُعتبر استعمال الهاتف الذكي خير مثال على ذلك، حيث تجمع برمجيات المساعدة على الكتابة وتُخزّن الكلمات التي يكتبها الشخص من أجل فهم توجّهاته وميولاته ورغباته، كما تجمّع تطبيقات التعرّف على الوجه أو الشكل الخصائص الجسدية للإنسان.
يُعتبر هذا الكم الهائل من البيانات كنزا ثمينا، تمكن إساءة استعماله. ورغم أن تجميع البيانات في حد ذاته لا يُعد شيئا مستحدثا، إلا أن الأمر حاليا يتم في عديد الحالات بمعزل عن تدخّل الإنسان، وبإتقان يحاكي ويضاهي عمل الدماغ البشري، عن طريق «الشبكات العصبونية الاصطناعية»[70]. ويكمن الإشكال هنا في أن الذكاء الاصطناعي اكتسب قدرة على تكوين المعرفة بشكل مستقل عن تدخل الإنسان.
تُشكّل الاستقلالية في اتخاذ القرار أهم سمة في الذكاء الاصطناعي المتقدّم وأخطرها. وتساهم النظم الخبيرة[71] في تطوّر هذه الاستقلالية ومحاكاة الذكاء الإنساني فيما يتعلّق بالقدرة على اتخاذ القرار. وهو ما يجعل الأحكام العامة للمسؤولية المدنية والجنائية الحالية عاجزة أمامها. وعلى سبيل المثال، لا يمكن تطبيق أحكام المسؤولية الشيئية على الأضرار التي تنشأ بفعل الذكاء الاصطناعي المتقدم، إذا ما ثبت أن الآلة الذكية قد اتخذت القرار بشكل مستقل عن الإنسان، لأن المسؤولية الشيئية تشترط توفّر شرط الحراسة من طرف شخص وهو أمر لا يتوفّر في هذا المثال.
وهناك من يرى أنه «من المحتمل واقعيا أن يفلت الذكاء الاصطناعي من تحكّم وتوجيه الإنسان، مما يُعيق إمكانية تحديد الحارس وقت حصول الضرر»[72]. وقد تؤدي استقلالية الآلة الذكية في اتخاذ القرار إلى اعتماد تصور مستحدث لمفهوم الحراسة يتجاوز التصور الكلاسيكي، كأن تُسند الحراسة إلى مُصنّع الروبوت أو السيارة ذاتية القيادة، طالما ثبت أن السائق لم يكن له أي دور في التحكّم فيها، وهو ما يحيلنا إلى حراسة البنية[73]. ويجد هذا الحل جذوره في فقه القضاء الفرنسي الذي لم يحمّل ناقل قوارير الأكسيجين السائل مسؤولية انفجارها في الطريق وحمّلها للشركة المصنّعة لها، والتي تتحمّل مسؤولية الانفجار لعيب في صنعها[74]. ومهما يكن من أمر، فإن تمتع الآلات الذكية «بديناميكية خاصة»[75] يتطلّب من المشرّع وضع أحكام خاصة تنقل مركز الثقل من الإنسان إلى الآلة الذكية.
إن استقلالية الذكاء الاصطناعي في اتخاذ القرار في حد ذاتها ليست أمرا سيئا، وتكتسي هذه الاستقلالية فائدة عملية عندما يتطلّب الأمر اتخاذ القرار في وقت قياسي، كأن تتخذ السيارة ذاتية القيادة القرار بتغيير مسارها في صورة قطع طفل صغير للطريق أمامها. في مثل هذه الحالة، قد يكون التأخر في اتخاذ القرار لبضع أعشار الثانية كارثيا. من جهة أخرى فإن احتمالية الخطأ الذي يمكن أن يرتكبه الذكاء الاصطناعي أقل بكثير من احتماليته بالنسبة للشخص العادي، الذي تتفاوت قدراته وتتأثّر بعوامل عديدة، مثل المرض والسُكر وبساطة التفكير وسوء التقدير والتعب وعدم التركيز ونقص المدارك. وهي عوامل لا يتأثر بها الذكاء الاصطناعي، الذي يخضع لخوارزميات دقيقة ومعقّدة تمت تجربتها واختبارها مئات المرات من أجل التأكد من موثوقيتها.
إن الخطورة الحقيقة التي تشكّلها استقلالية الذكاء الاصطناعي المتقدّم في اتخاذ القرار تكمن في أنه من الصعوبة، إن لم يكن من المستحيل أحيانا، فهم طريقة تفكير واستدلال هذا الصنف المعقّد من الذكاء. وهو ما دفع بالبعض إلى تشبيهه بالصندوق الأسود[76] نظرا لما يشوب اتخاذ القرار من غموض. ويزداد الأمر دقة وحدة عندما يتعلق الأمر بالقرارات ذات البعد الأخلاقي، التي يصعب إدماجها في خوارزميات الذكاء الاصطناعي.
أضحى الذكاء الاصطناعي قادرا على التفوّق، وبشكل كبير، على الذكاء الإنساني في العمليات الحسابية فائقة التعقيد، كما ازدادت قدرته على الاستفادة، في وقت قياسي، من الكم الهائل من البيانات المُخزّنة لديه. ويسمح هذا التفوّق بإيجاد حلول أكثر نجاعة وأكثر سرعة من تلك التي قد تصدر عن الإنسان العادي. ولكن هذه النجاعة لا يجب أن تكون الهدف الوحيد من الذكاء الاصطناعي. وعلى سبيل المثال، فإن الذكاء البشري قد سمح باكتشاف أكثر طريقة ناجعة لتوليد الطاقة، وذلك عن طريق الإشعاع النووي، ولكن في نفس الوقت فإن سوء استخدامها قد يكون سببا في القضاء على البشرية. وبالتالي فإن نجاعة الحلول العلمية، ليست ضمانا كافيا لازدهار الشعوب، وقد تتحول في غياب أخلاقيات تؤطر العمل العلمي إلى وبال عليها[77].
إن اتخاذ القرار من طرف الروبوت أو من طرف الذكاء الاصطناعي المتقدّم لا يجب أن يكون مبنيا بشكل حصري على أسس اقتصادية (مثل التقليل في الكلفة)، وإنما يجب أن يخضع لضوابط أكثر إنسانية واحتراما للكرامة البشرية. وهنا تكمن الصعوبة؛ إذ ليس من السهل إدماج الإنساني في اللاإنساني. ويُطرح الأمر بشكل كبير بالنسبة للسيارة ذاتية القيادة، والتي لا تتطلّب أي تدخّل بشري في القيادة. إذا ما وجدت هذه السيارة نفسها، عند السير، أمام خيارين لا ثالث لهما، إما صدم حيوان وقتله أو الانحراف عنه وصدم شيء مادي قد يُلحق ضررا أكثر بالسيارة دون أن يهدد حياة الراكب داخلها، فإن الحل الأكثر كلفة والأكثر إنسانية هو تجنب صدم الحيوان واختيار صدم الشيء المادي. ولكن في هذه الحالة سيكون الحل الأكثر إنسانية هو الأكثر كلفة.
ويمكن لواضعي برمجيات وخوارزميات الذكاء الاصطناعي التحسّب لعدد هام من الفرضيات المُحتملة التي يجب فيها الاختيار بين حلّين ضارين. ولكن يبدو من المستحيل عمليا الإلمام بكل الفرضيات المحتملة، كما يصعب التنبؤ بكل الاحتمالات التي قد تكون فيها السيارة ذاتية القيادة مجبرة على الاختيار بين قرارات صعبة وضارة في كل الحالات. قد تكون السيارة ذاتية القيادة أمام الاختيار بين صدم حيوان أليف وصدم حيوان مشرّد أو بين صدم كلب وصدم قط أو بين صدم طفل وصدم امرأة. وتتعدّد الاحتمالات الممكنة بشكل لامتناه. ويُطرح السؤال هنا حول الضوابط والمعايير الأخلاقية التي سيتم إدراجها في برمجيات الذكاء الاصطناعي، فالأخلاق مفهوم زئبقي ومتغيّر.
إن القوانين المنطبقة في مجال حماية الحق في الخصوصية في البلد المُصنّع للذكاء الاصطناعي ليست بالضرورة هي نفسها في البلد الذي سيستعمل الذكاء الاصطناعي. وعلى سبيل المثال، فإن مرونة التشريعات الصينية إزاء حماية المعطيات الشخصية قد ساعدت الصين على تحقيق طفرة تكنولوجية في مجال الذكاء الاصطناعي المتقدّم الذي يعتمد بشكل كبير على البيانات الضخمة (Big data) والتي تتم معالجتها في الغالب بشكل ينتهك خصوصية الأفراد.
ومثل هذه الانتهاكات للحق في الخصوصية غير مسموح بها في البلدان التي تضع ضوابط لحماية المعطيات والبيانات الشخصية، كما هو الحال في القانون القطري الذي ينص على حق كل فرد في حماية خصوصية بياناته الشخصية[78]. وهو ما يُعيق تطوّر الذكاء الاصطناعي في هذه الدول. ونظرا للمخاطر الناجمة عن المعالجة غير المسؤولة للبيانات، فإن هناك من ينادي بإقرار ما يُسمّى بأخلاقيات البيانات الضخمة. وهناك حاليا بحوث علمية قطرية تجمع بين الجانب القانوني والجانب العلمي في مجال برمجة السيارات ذاتية القيادة بما يتناسب مع المبادئ الإسلامية[79].
ويرى أحد الكتاب المختصين في الذكاء الاصطناعي «ضرورة وضع مبادئ ونظريات أخلاقية من السهل التعامل معها من الناحية الحاسوبية، بحيث تمثّل خطة بديلة في الوضعيات غير المتوقّعة[80]». وينادي هذا الكاتب بتكريس مبدأ بسيط يتمثل في عدم تعريض حياة البشر لأي خطر تحت أي ظرف. وفي نفس السياق، يمكن للشركات المختصة في مجال الذكاء الاصطناعي المتقدم الاستلهام من قوانين «أسيموف» عند وضعهم لبرمجيات وخوارزميات في هذا المجال. ولا ينحصر مجال الأخلاقيات في الروبوتات، بل يمكن أن يشمل الذكاء الاصطناعي بوجه عام.
إن خصوصية الذكاء الاصطناعي المتقدّم تتطلب استحداث قوانين مبتكرة تتماشى مع طبيعة هذا الذكاء، وتتفادى غياب التشريع في مسألة تزداد أهميتها بشكل مطّرد.
تستدعي خصوصية الإشكاليات المرتبطة بالذكاء الاصطناعي المتقدّم اعتماد تصور مستحدث للمسؤولية عن فعل الذكاء الاصطناعي المتقدّم (أولًا) كما أنه من الضروري مواكبة المشرّع القطري للتشريعات المقارنة الخاصة بالذكاء الاصطناعي (ثانيًا).
تُشكّل الثورة الرقمية التي نعيشها في السنوات الأخيرة، وخاصة تنامي دور الذكاء الاصطناعي في حياتنا اليومية، حافزا لاعتماد تصوّر مستحدث للمسؤولية المدنية. وتُثبت القراءة التاريخية للمسؤولية المدنية أن تطوّرها كان مرتبطا بشكل كبير بما شهده العالم من ثورة في الصناعة أو التقنية. ويبدو من الضروري، في المستقبل القريب، التحرّر من فكرة إسناد المسؤولية إلى شخص طبيعي والتفكير في إقحام أطراف جدد في مجال المسؤولية المدنية، يتحمّلون المسؤولية عن أضرار الذكاء الاصطناعي.
في نهاية القرن التاسع عشر، أدّى ظهور الأضرار الناجمة عن استعمال الآلات إلى تطوّر المسؤولية المدنية وإلى ظهور المسؤولية الموضوعية. واليوم، يتجدد الإشكال، وبشكل أكثر تعقيدا، في مجال الذكاء الاصطناعي. لقد أضحى الحد الفاصل بين إمكانيات الذكاء الاصطناعي والسمات الإنسانية يتضاءل يوما بعد يوم. ويدعو هذا الأمر إلى الحرص على جعل الانسان محورا للذكاء الاصطناعي، وليس العكس. ولا يمكن ضمان ذلك بدون تحديد واضح للمسؤوليات وإسنادها للأشخاص الطبيعيين.
لقد أثارت مسألة إسناد الشخصية القانونية للذكاء الاصطناعي جدلا قانونيا وفقهيا مستفيضا[81]. ورغم ما تلاقيه فكرة منح الشخصية القانونية للذكاء الاصطناعي من تأييد، إلا أن هناك من ينظر بعين الريبة نحو هذا الحل، ويعدّه «مغامرة» و«استباقا مضللاً نحو مستقبل مجهول»[82]. وقد يكون من المُفيد، في المستقبل، إسناد الشخصية القانونية للذكاء الاصطناعي كلما كانت هناك فائدة للمتضرّرين من أفعاله. ويكون ذلك مثلا في صورة ما إذا كان إقرار هذه الشخصية القانونية مصحوبا بإنشاء صندوق تعويض لضحايا الذكاء الاصطناعي، يتم تمويله من طرف إتاوات تُفرض على أنشطة الذكاء الاصطناعي. ويمكن مطالبة الصندوق بالتعويض كلما قامت مسؤولية نظام الذكاء الاصطناعي.
وقد يكون من المُجدي إقرار الشخصية القانونية للذكاء الاصطناعي بهدف تمكينه من الحصول على حقوق مرتبطة بأعمال إبداعية وابتكارية، لا يمكن نسبتها لأشخاص طبيعيين، مع فرض رسوم مالية على ما يحصل عليه من مستحقات وحقوق مالية، يتم ضخها في صندوق لضمان أضرار الذكاء الاصطناعي.
إن إقرار الشخصية القانونية للذكاء الاصطناعي يجب أن تكون له جدوى عملية بالنسبة للمتضررين من أنشطة الذكاء الاصطناعي، وإلا سيؤدي ذلك إلى العزوف عن التعامل معه، خصوصا في مجال الروبوتات. ولا أحد يرغب، في صورة تعرّضه لضرر ناتج عن الروبوت، بأن يُجابهه الروبوت بشخصية قانونية خاصة به تعطيه حقوقا أكثر مما تفرض عليه من التزامات[83]. وقد دفع التخوّف من هذه الفرضية جانبا من الفقه إلى التشكيك في الجدوى العملية لهذه الشخصية القانونية، سواء بالنسبة للبشر أو بالنسبة للروبوتات[84].
ولا يسمح الوضع الحالي للتشريعات بإقرار الشخصية القانونية للذكاء الاصطناعي، وذلك حتى بالنسبة للروبوتات. وعلى سبيل المثال، فإن القانون القطري يُقر نوعين من الأشخاص لا ثالث لهما، الشخص الطبيعي والشخص المعنوي. وبالنسبة للشخص المعنوي، فإن المادة 53 من القانون المدني قد حدّدت الأشخاص المعنوية، ولكنها سمحت في فقرتها الأخيرة بإقرار الشخصية الاعتبارية لمجموعة من الأشخاص والأموال عن طريق القانون.
إن فكرة اللجوء إلى الافتراض القانوني أمر دارج في القانون. فالقانون المدني القطري يفترض، على غرار قوانين مقارنة، بأن المنقولات، بما فيها الحيوانات، عقارات بالتخصيص طالما خُصّصت لخدمة العقار. وتاريخيا، كان العبد يُنظر إليه من منظور قانوني على أنه شيء لا يتمتّع بالشخصية القانونية. وفي الفقه الإسلامي، فإن الأمر مختلف نسبيا، فقد كانت للعبيد طبيعة خاصة، فلم يصلوا إلى مرتبة «الشخصية الكاملة» ولكن في المقابل لم ينزلوا إلى مرتبة «الشيئية المطلقة»، بما أنهم كانوا مكلّفين بالأحكام الشرعية[85]. وهناك من يرى اليوم أن إقرار الشخصية القانونية للذكاء الاصطناعي لا يتعارض مع أحكام الشريعة الإسلامية[86]، عملا بقاعدة «الأصل في الأمور الإباحة».
وبالتالي، يمكن للتصوّر القانوني للأشياء ألا يكون متطابقا مع التصور الواقعي لها. ويمكن للمشرّع، إذا ما استدعت الضرورة ذلك، أن يُنزّل الروبوت منزلة الشخص الطبيعي. ويتوقّف اعتماد هذا الحل، على ما يوفّره من ضمانات للمتضررين من أعمال الذكاء الاصطناعي أو الروبوتات. وقد يكون من الضروري في المستقبل إلزام الأشخاص المستفيدين من الذكاء الاصطناعي بالتأمين عن المسؤولية الناجمة عن أضرار الذكاء الاصطناعي.
وقد تكون الإجراءات الوقائية أكثر جدوى من الاقتصار على التعويض بعد حصول الضرر. وتسمح المادة 213 من القانون المدني القطري باعتماد تصوّر وقائي للمسؤولية المدنية، من خلال ما تُتيحه «لكل من يتهدّده ضرر من شيء معين أن يطالب مالكه أو حارسه باتخاذ ما يلزم لدرء خطره». ويبدو من الضروري مواكبة المشرع القطري للحراك التشريعي الذي يعيشه العالم في مجال الذكاء الاصطناعي.
وفي هذا السياق، تنص الفقرة الأولى من المادة 30 من القانون المدني القطري: «يسري على الالتزامات الناشئة عن العمل غير المشروع قانون البلد الذي وقع فيه الفعل المنشئ للالتزام». وبالتالي، فإذا ما ثبت أن مصدر الضرر ناجم عن خطأ ارتكبته الشركة المُصنّعة للذكاء الاصطناعي، فإنه سينطبق قانون الدولة التي تنتمي إليها الشركة المصنّعة. ويكتسي الأمر مرونة بالنسبة للضرر الناشئ عن الذكاء الاصطناعي في إطار عقد أبرم بين الشركة المصنّعة وبين مشتري المُنتج. في هذه الحالة، تُعطي المادة 29 من القانون المدني القطري خيارات متعدّدة للأطراف فيما يتعلّق بالقانون المنطبق على النزاع.
ويُطرح السؤال فيما إذا كان دور التشريع الوطني يقتصر على التأقلم مع قوانين الدول المنتجة لأنظمة الذكاء الاصطناعي، أم أن بإمكانه التأثير على مُشرّعي هذه الدول ودفعهم إلى الأخذ بعين الاعتبار عند تصنيعها لأنظمة الذكاء الاصطناعي لخصوصية المجتمع الذي سيستهلك المنتج النهائي. ورغم أن برمجيات الذكاء الاصطناعي يتم إنتاجها وتطويرها عادة في الدول المتقدمة تكنولوجيا، إلا أن ذلك لا يحول دون حق الدول المستهلكة في فرض شروط وضوابط على الشركات المصنّعة فيما يتعلق بالضوابط الأخلاقية والمجتمعية الخاصة بكل دولة. وعموما، يبدو من الضروري وضع استراتيجية وطنية فيما يتعلّق بالتعامل مع الذكاء الاصطناعي واحتوائه. كما أنه من المفيد تشكيل هيئة وطنية مختصة بالنظر في أخلاقيات الذكاء الاصطناعي.
في نهاية هذا البحث، يمكن القول إن الحلول القانونية للإشكاليات المتعلقة بالذكاء الاصطناعي في القانون القطري تتوقّف على طبيعة هذا الذكاء ومدى تعقيده واستقلاليته. ولئن كانت القواعد العامة للمسؤولية قادرة، إلى حد ما، على الاستجابة إلى معظم الإشكاليات الناجمة عن استعمال الذكاء الاصطناعي الأوّلي، فإن هذه القواعد تقف عاجزة أمام الذكاء الاصطناعي المتقّدم. إن ظهور هذا الصنف المستحدث من الذكاء الاصطناعي يتطلب تضافر الجهود الدولية من أجل صياغة نظام قانوني موحّد، أو على الأقل متقارب، يمكن تطبيقه في معظم الدول، على غرار ما هو معمول به بالنسبة لقوانين الملكية الفكرية، وعلى شاكلة ما هو موجود في تشريعات دول الاتحاد الأوروبي. ويبدو من الضروري تشكيل لجنة أو لجان مختصة في الوزارات المعنية بمسألة الذكاء الاصطناعي من أجل إيجاد حلول قانونية إزاء الأضرار التي قد تنشأ عن استعماله.
أولًا: النتائج:
- إمكانية اعتماد القواعد العامة للمسؤولية المدنية كأساس مبدئي للمسؤولية عن أضرار الذكاء الاصطناعي الأوّلي.
- تنوّع الذكاء الاصطناعي واختلافه، مما يستدعي اعتماد حلول مختلفة بحسب خصوصية الذكاء الاصطناعي ومدى استقلاليته في اتخاذ القرار.
- محدودية القواعد العامة للمسؤولية المدنية في مواجهة الأضرار الناجمة عن الذكاء الاصطناعي المتقدّم.
- وجود تحدّيات قانونية أمام المشرّع القطري فيما يتعلق بتقنين أحكام المسؤولية عن أضرار الذكاء الاصطناعي، نظرا لأن الفعل المنشئ للمسؤولية الناجمة عن أضرار الذكاء الاصطناعي يكون في معظم الحالات خارج الدولة.
- ارتباط الحلول التشريعية بالتوجّهات الدولية في مجال الذكاء الاصطناعي.
ثانيًا: التوصيات
- فرض التأمين الإجباري على أنشطة الذكاء الاصطناعي التي تتمتع باستقلالية اتخاذ القرار والتي تشكّل تهديدا للغير.
- إنشاء صندوق تعويض ضمان للأضرار الناجمة عن الذكاء الاصطناعي.
- إقرار الشخصية القانونية للذكاء الاصطناعي كلما كانت هناك فائدة للمتضرر من ذلك.
- اعتماد تصور مرن للمسؤولية المدنية عن أضرار الذكاء الاصطناعي يقوم على المسؤولية الموضوعية.
- اعتماد ضوابط وبروتوكولات ارشادية تُتّبع في صورة خروج الروبوتات أو أنظمة الذكاء الاصطناعي عن السيطرة.
- إنشاء لجنة لأخلاقيات الذكاء الاصطناعي ولجان متخصصة في الإشكاليات القانونية والتقنية المرتبطة بالذكاء الاصطناعي.
أولًا: العربية
1- الكتب والمقالات:
بوشارب، سعيدة وكلو، هشام. «المركز القانوني للروبوت على ضوء قواعد المسؤولية المدنية»، مجلة الاجتهاد القضائي، مج14 (مارس 2022).
جراد، أحمد بلحاج. «الشخصية القانونية للذكاء الاصطناعي، استباق مضلّل». مجلة كلية القانون الكويتية العالمية، مج1، ع42 (مارس 2023).
الجربي، سامي. شروط المسؤولية المدنية، مطبعة التسفير الفني، تونس، 2011.
حسانين، محمد إبراهيم. «الذكاء الاصطناعي والمسئولية المدنية عن أضرار تطبيقه - دراسة تحليلية تأصيلية». المجلة القانونية، مج15، ع1 (فبراير 2023).
حسن لطفي، خالد. الذكاء الاصطناعي وحمايته من الناحية المدنية والجنائية. دار الفكر الجامعي، الإسكندرية، 2021.
الخطيب، عرفان محمد. «الذكاء الاصطناعي والقانون: نحو مشروع قانون مؤطر للذكاء الاصطناعي في إطار أحكام القواعد الأوربية في القانون المدني للإنسآلة لعام 2017 ورؤية قطر الوطنية 2030». المجلة القانونية والقضائية، وزارة العدل، مركز الدراسات القانونية والقضائية، قطر، 2020.
___. «المركز القانوني للإنسآلة: الشخصية والمسؤولية... دراسة تأصيلية مقارنة، قراءة في القواعد الأوربية للقانون المدني للإنسآلة لعام 2017». مجلة كلية القانون الكويتية العالمية، مج6، ع4، العدد التسلسلي 24 (ديسمبر 2018).
الديحات، عماد. «نحو تنظيم قانوني للذكاء الاصطناعي في حياتنا: إشكالية العلاقة بين البشر والآلة». مجلة الاجتهاد للدراسات القانونية والاقتصادية، مج8، ع5 (2019).
الشرايري، محمد أحمد. «المسؤولية المدنية الذكية عن أضرار الذكاء الاصطناعي: دراسة مسحية مقارنة». مجلة كلية القانون الكويتية العالمية – مج10، ع2، العدد التسلسلي 38 (مارس 2022).
عبد الله، هدى. آفاق المسؤولية المدنية على ضوء النصوص القانونية والآراء الفقهية والاجتهادية. منشورات الحلبي الحقوقية، بيروت، 2020.
العطور، رنا إبراهيم. «نحو إطار قانوني بشأن الحوادث الناجمة عن المركبات ذات التفويض في القيادة». المجلة القانونية والقضائية، ع34 (ديسمبر 2023).
القرقوري، منى. «الأسس التقليدية للمسؤولية عن أضرار الذكاء الاصطناعي». مجلة منازعات الأعمال، ع72 (2022).
كابلن، جيري. الذكاء الاصطناعي: ما يحتاج الجميع إلى معرفته. ترجمة صفية مختار. بوك مانيا، القاهرة، 2020.
اللومي، عبد الرؤوف. «الذكاء الاصطناعي والمسؤولية عن الأعمال غير المشروعة». مجلة أكاديمية الشرطة، مج2، ع1 (يناير 2022).
ماجد، أحمد. الذكاء الاصطناعي بدولة الإمارات العربية المتحدة. إدارة الدراسات والسياسات الاقتصادية، وزارة الاقتصاد، الإمارات العربية المتحدة، 2018.
الوالي، عبد الله سعيد. المسؤولية المدنية عن أضرار تطبيقات الذكاء الاصطناعي في القانون الإماراتي. دار النهضة العربية، القاهرة، 2021.
يوسف، كريستيان. المسؤولية المدنية عن فعل الذكاء الاصطناعي. منشورات الحلبي الحقوقية، بيروت، 2022.
2- التشريعات:
القانون المدني الجزائري.
القانون المدني القطري رقم 22 لسنة 2004.
القانون رقم 13 لعام 2016 بشأن حماية خصوصية البيانات الشخصية.
القانون رقم 8 لسنة 2008 بشأن حماية المستهلك.
مجلة الالتزامات والعقود التونسية.
المجلة المدنية الفرنسية.
ثانيًا: الأجنبية
References:
ʻAbd Allāh, Hudá. Āfāq al-Masʼūlīyah al-madanīyah ʻalá ḍawʼ al-nuṣūṣ al-qānūnīyah wa-al-ārāʼ al-fiqhīyah wālājthādyh (in Arabic) Manshūrāt al-Ḥalabī al-Ḥuqūqīyah, Beirut, 2020.
Al-ʻAṭūr, Ranā. "Naḥwa iṭār qānūnī bi-shaʼn al-ḥawādith al-nājimah ʻan al-markabāt Dhāt al-tafwīḍ fī al-Qiyādah", (in Arabic), al-Majallah al-qānūnīyah wa-al-Qaḍāʼīyah, no. 34 (December 2023).
Aldyḥāt, ʻImād. "Naḥwa tanẓīm qānūnī lldhkāʼ alāṣṭnāʻy fī ḥayātinā: Ishkālīyat al-ʻalāqah bayna al-bashar wālʼālh",(in Arabic), Majallat al-Ijtihād lil-Dirāsāt al-qānūnīyah wa-al-iqtiṣādīyah, al-mujallad 8, al-ʻadad 5, al-Sunnah 2019.
ʻAlī al-Duwaykāt, Naṣrī. "al-Masʼūlīyah al-taqṣīrīyah ʻalá aḍrār alrwbwtāt", (in Arabic) Majallat Jāmiʻat al-Zaytūnah al-Urdunīyah lil-Dirāsāt al-qānūnīyah, vol. 3, no. 3 (2022).
Al-Jerbī, Sāmī. shurūṭ al-Masʼūlīyah al-madanīyah (in Arabic), 1st ed., Maṭbaʻat al-Tasfīr al-Fannī, Tunis, 2011.
al-Khaṭīb, Muḥammad ʻIrfān. "al-Markaz al-qānūnī llʼnsʼālh (al-shakhṣīyah wa-al-masʼūlīyah ... dirāsah taʼṣīlīyah muqāranah", qirāʼah fī al-qawāʻid al-Ūrubbīyah lil-qānūn al-madanī llʼnsʼālh li-ʻām 2017 ", (in Arabic), Majallat Kullīyat al-qānūn al-Kuwaytīyah al-ʻĀlamīyah, vol. 6, Issue. 4, no 24 (December 2018).
–––. "al-Masʼūlīyah al-madanīyah wa-al-dhakāʼ alāṣṭnāʻy ... imkānīyat al-musāʼalah? dirāsah taḥlīlīyah muʻammaqah li-qawāʻid al-Masʼūlīyah al-madanīyah fī al-qānūn al-madanī al-Faransī", (in Arabic), Majallat Kullīyat al-qānūn al-Kuwaytīyah al-ʻĀlamīyah (March 2020).
Allwmy, ʻAbd al-Raʼūf. "al-dhakāʼ alāṣṭnāʻy wa-al-masʼūlīyah ʻan al-Aʻmāl ghayr al-mashrūʻah", (in Arabic), Majallat Akādīmīyat al-Shurṭah, vol. 2, no. 1 (2022).
Al-Qaraqūrī, Muná. "al-Usus al-taqlīdīyah llmsʼwlyh ʻan aḍrār al-dhakāʼ alāṣṭnāʻy", (in Arabic), Majallat munāzaʻāt al-Aʻmāl, no. 72 (2022).
Al-Sharāyirī, Muḥammad Aḥmad. "al-Masʼūlīyah al-madanīyah al-dhakīyah ʻan aḍrār al-dhakāʼ alāṣṭnāʻy: dirāsah masḥīyah muqāranah", (in Arabic), Majallat Kullīyat al-qānūn al-Kuwaytīyah al-ʻĀlamīyah, vol. 10, Issue 2, no. 38 (March 2022).
Al-Wālī, ʻAbd Allāh Saʻīd. al-Masʼūlīyah al-madanīyah ʻan aḍrār taṭbīqāt al-dhakāʼ alāṣṭnāʻy fī al-qānūn al-Imārātī (in Arabic), Dār al-Nahḍah al-ʻArabīyah, Cairo, 2021.
Bālʻbās, Amāl. "Madá mlāʼmh Qawāʻid al-Masʼūlīyah al-madanīyah lil-taʻwīḍ ʻan aḍrār al-nuẓum al-dhakīyah", (in Arabic), Majallat al-Buḥūth al-qānūnīyah wa-al-iqtiṣādīyah, vol. 6, no. 1 (2023).
Būshārib, Saʻīdah wa klw, Hishām. "al-Markaz al-qānūnī llrwbwt ʻalá ḍawʼ Qawāʻid al-Masʼūlīyah al-madanīyah", (in Arabic), Majallat al-Ijtihād al-qaḍāʼī, vol. 14, (March 2022).
Castets-Renards, Céline, « Comment construire une intelligence artificielle responsable et inclusive », Dalloz, 2020.
Dugué, Marie, « La responsabilité civile à l’épreuve des voitures autonomes », Grief, 2020, n° 7, 1.
Elmahjub, Ezieddinm, Qadir, Junaid: “How to program autonomous vehicle crash algorithms: an Islamic ethical perspective”, Journal of Information, communication and Ethics in Society, Vol. 21, n° 4, 2023.
Ḥasan Luṭfī, Khālid. al-dhakāʼ alāṣṭnāʻy wa-ḥimāyatuhu min al-nāḥiyah al-madanīyah wa-al-Jināʼīyah (in Arabic) Dār al-Fikr al-Jāmiʻī, Alexandria, 2021.
Ibrāhīm Ḥasānayn, Muḥammad. "al-dhakāʼ alāṣṭnāʻy wa-al-masʼūlīyah al-madanīyah ʻan aḍrār taṭbīqih" dirāsah taḥlīlīyah taʼṣīlīyah", (in Arabic), al-Majallah al-qānūnīyah, 2023.
Jarād, Aḥmad Bilḥājj. "al-shakhṣīyah al-qānūnīyah lldhkāʼ alāṣṭnāʻy, astbāq mḍlll", (in Arabic), Majallat Kullīyat al-qānūn al-Kuwaytīyah al-ʻĀlamīyah, no. 42 (March 2023).
Kābln, Jīrī. al-dhakāʼ alāṣṭnāʻy, mā yaḥtāju al-jamīʻ ilá maʻrifatuhu (in Arabic), Trans: Ṣafīyah Mukhtār. Būk Mānyā, Cairo, 2020.
Kamīlah, Aʻrāb. "Masʼūlīyat alrwbwt fī ẓill al-dhakāʼ alāṣṭnāʻy", (in Arabic), al-Multaqá al-dawlī: al-istithmār al-mālī wa-al-ṣināʻī fī al-dhakāʼ alāṣṭnāʻy-al-tiknūlūjiyā al-mālīyah wa-al-thawrah al-Ṣināʻīyah al-rābiʻah, Tripoli, Markaz jīl lil-Baḥth al-ʻIlmī.
Loiseau, Grégorie, « La voiture qui tuait toute seule », Dalloz, 2018.
Mendoza-Caminda, Alexandra, « Le droit confronté à l’intelligence artificielle des robots: vers l’émergence de nouveaux concepts juridiques », Dalloz, 2016.
Sitiris Miszairi & Abdullahi Busari Saheed, “The legal capacity (Al-Ahlyya) of artificial intelligence from an Islamic perspective,” Malaysian Journal of Syariah and Law, Vol. 12, Issue 1, April 2024.
Teresi, Laurent, « Véhicule de délégation de conduite et risque automobile: une lecture juridique », Les petites affiches, 17 novembre 2020.
Yūsuf, Krīstīyān. al-Masʼūlīyah al-madanīyah ʻan fiʻl al-dhakāʼ alāṣṭnāʻy (in Arabic) Manshūrāt al-Ḥalabī al-Ḥuqūqīyah, Beirut, 2022.
[1] تعود بداية ظهور علم الذكاء الاصطناعي إلى عام 1956؛ حيث انعقد أول مؤتمر للذكاء الاصطناعي في كلية دارتموث. (راجع: عبير أسعد، الذكاء الاصطناعي، دار البداية، 2017).
[2] Voir: https://eur-lex.europa.eu
[3] Voir: «Intelligence artificielle: le Parlement européen adopte une législation unique pour encadrer son utilisation», article publié dans le journal « Le monde» du 13 mars 2024.
[4] انظر قرار الجمعية العامة للأمم المتحدة منشور على موقعها الإلكتروني: https://documents.un.org
[5] انظر: أحمد ماجد، الذكاء الاصطناعي بدولة الإمارات العربية المتحدة، إدارة الدراسات والسياسات الاقتصادية، وزارة الاقتصاد، الإمارات العربية المتحدة، 2018، ص2.
[6] Voir Céline Castets-Renards, « Comment construire une intelligence artificielle responsable et inclusive », Dalloz, 2020, p. 225.
[7] عبد الله سعيد الوالي، المسؤولية المدنية عن أضرار تطبيقات الذكاء الاصطناعي في القانون الإماراتي، دار النهضة العربية، القاهرة، 2021، ص21.
[8] من أمثلة ذلك تقنيات الذكاء الاصطناعي والروبوتات وتقنية النانو والتحكم في الجينات.
[9] من أهم تطبيقات التنقل داخل المدن التي تستعمل الذكاء الاصطناعي تطبيق "Google map" وتطبيق "Waze".
[10] عديد الدول في العالم لديها مترو يعمل بدون سائق، مثل فرنسا وقطر.
[11] حول استراتيجية قطر الوطنية للذكاء الاصطناعي، https://qcai-blog.qcri.org.
[12] جيري كابلن، الذكاء الاصطناعي: ما يحتاج الجميع إلى معرفته، ترجمة صفية مختار، بوك مانيا، القاهرة، 2020، ص17.
[13] المرجع نفسه.
[14] محمد إبراهيم حسانين، «الذكاء الاصطناعي والمسئولية المدنية عن أضرار تطبيقه – دراسة تحليلية تأصيلية»، المجلة القانونية، مج15، ع1 (فبراير 2023)، ص185.
[15] Artificial Intelligence Act.
[16] للاطلاع على المادة باللغة الفرنسية: https://artificialintelligenceact.eu/fr/article/3
[17] انظر معجم المعاني.
[18] حول مجالات الذكاء الاصطناعي، انظر: الوالي، ص50.
[19] ظهرت في السنوات الأخيرة برمجيات إلكترونية متخصصة في في مجال الإفتاء، مثل: «برنامج القسّام الشرعي»، و«برنامج موسوعة المواريث»، و«برنامج موسوعة الفتاوي الاقتصادية».
[20] انظر الإعلان الصادر عن وزارة الشؤون الإسلامية والدعوة والإرشاد بالسعودية عبر موقعها الإلكتروني بعنوان «إطلاق روبوت الفتوى الإلكتروني بمسجدي نمرة والمشعر الحرام». (https://www.moia.gov.sa).
[21] حول إشكالية مشروعية الإفتاء عبر تقنية الذكاء الاصطناعي، انظر: طه أحمد الزيدي، «مشروعية الإفتاء عبر تقنية الذكاء الاصطناعي»، في كتاب مؤتمر الدوحة العاشر للمال الإسلامي: نحو التمويل الإسلامي 2.0، 2024، ص11.
[22] حسانين، ص191. يُميز الكاتب بين أنواع الذكاء الاصطناعي وفقًا لقدرته على القيام بالمهام المنوطة به؛ حيث يشمل هذا النوع الذكاء الضيق والذكاء العام والذكاء الفائق، وأيضًا وفقًا للمهام التي يقوم بها.
[23] هناك من يطلق عليه تسمية «الذكاء الاصطناعي الضعيف» أو «المحدود». أحمد بلحاج جراد، «الشخصية القانونية للذكاء الاصطناعي: استباق مضلّل»، مجلة كلية القانون الكويتية العالمية، مج11، ع42 (مارس 2023)، ص242.
[24] هناك من يطلق عليه تسمية «الذكاء الاصطناعي القوي»، وهناك من يسمّيه «الذكاء الاصطناعي العام» (حسانين، ص192).
[25] حول ازدواجية شكل الذكاء الاصطناعي، انظر كريستيان يوسف، «المسؤولية المدنية عن فعل الذكاء الاصطناعي»، منشورات الحلبي الحقوقية، بيروت، 2022، ص27.
[26] يتجلّى ذلك من خلال استعمال المادة 212 من القانون المدني القطري لعبارة «وكل شيء آخر يكون بحسب طبعه».
[27] على سبيل المقارنة، انظر: المادة 96 من مجلة الالتزامات والعقود التونسية، وأيضًا: المادة 316 من قانون المعاملات الإماراتي.
[28] حول السيارات ذاتية القيادة، انظر: رنا إبراهيم العطور، «نحو إطار قانوني بشأن الحوادث الناجمة عن المركبات ذات التفويض في القيادة»، المجلة القانونية والقضائية، ع34 (ديسمبر 2023)، ص145.
[29] Ezieddin Elmahjub, Junaid Qadir: «How to program autonomous vehicle crash algorithms: an Islamic ethical perspective», Journal of Information, communication and Ethics in Society, Vol. 21, n° 4, 2023, p. 452.
[30] حول الحوادث المرورية التي ارتكبتها السيارات ذاتية القيادة في السنوات الأخيرة، انظر: عبد الرؤوف اللومي، «الذكاء الاصطناعي والمسؤولية عن الأعمال غير المشروعة»، مجلة أكاديمية الشرطة، مج2، ع1 (يناير 2022).
[31] Voir: Grégorie Loiseau, « La voiture qui tuait toute seule », article précité, p. 793.
[32] خالد حسن أحمد لطفي، الذكاء الاصطناعي وحمايته من الناحية المدنية والجنائية، دار الفكر الجامعي، الإسكندرية، 2021، ص129.
[33] Voir: Arnaud Touati et Gary Cohen, Le droit à l’épreuve de l’intelligence artificielle » du 28 novembre 2016 paru dans la revue Village de la Justice,
[34] Voir: « RAPPORT au nom de L’Office parlementaire d’évaluation des choix scientifiques et technologiques », p. 154.
[35] تعُدّ هذه النظرية أن الحراسة القانونية تشترط أن يكون الحارس له سلطة قانونية على الشيء، يستمدها من حق عيني عليه أو من حق شخصي مرتبط به. لمزيد من التحليل، محمد لبيب شنب، المسؤولية عن الأشياء – دراسة مقارنة، ط2، مكتبة الوفاء القانونية، الإسكندرية، 2009، ص84.
[36] تاريخيًا، كان للحكم الصادر في 2 ديسمبر 1941 عن الدوائر المجتمعة لمحكمة النقض الفرنسية دور حاسم في الأخذ بالحراسة الفعلية كأساس لمسؤولية الحارس. وقد برّرت محكمة النقض الفرنسية آنذاك حكمها بأن المالك الذي سُرق منه الشيء لا يُعتبر حارسا له، نظرا لأنه قد حُرم من سلطة استعماله وتوجيهه ورقابته. وقد سايرتها في ذلك سائر المحاكم.
[37] كأن يُعتبَر حارسًا لشيء تم افتكاكه أو سرقته منه.
[38] سيرى 1941-1- 217 تعليق «هنري مازو» (ذكره محمد لبيب شنب، المرجع السابق).
[39] في مصر، على سبيل المثال، استقر قضاء محكمة النقض على الأخذ بالحراسة الفعلية (شنب، ص90).
[40] Voir: Grégorie Loiseau, « La voiture qui tuait toute seule », Dalloz, 2018, p. 793.
[41] الوالي، ص151.
[42] سمح المشرّع الفرنسي منذ سنة 2015 بصفة تجريبية جولان السيارات ذات التفويض في القيادة بموجب المرسوم رقم 992 لسنة 2015.
[43] عدّل المشرّع الإيطالي المادة 141 من قانون المرور من أجل إقرار سير السيارات ذات التفويض في القيادة من المستوى الثالث، مع إلزام سائق السيارة بالتحكم فيها.
[45] حول مسألة الشخصية القانونية للذكاء الاصطناعي، محمد عرفان الخطيب، «الذكاء الاصطناعي والقانون: نحو مشروع قانون مؤطر للذكاء الاصطناعي في إطار أحكام القواعد الأوربية في القانون المدني للإنسآلة لعام 2017 ورؤية قطر الوطنية 2030»، المجلة القانونية والقضائية، وزارة العدل، مركز الدراسات القانونية والقضائية، قطر، 2020، ص40.
[46] المشرّع القطري استعمل كلمة «خطر» في المادة 212 من القانون المدني القطري.
[47] انظر على سبيل المثال المادة من مجلة الالتزامات والعقود التونسية والمادة 122 من قانون الموجبات والعقود اللبناني، والمادة 178 من القانون المدني المصري. وفي المقابل يبدو قانون المعاملات المدنية الإماراتي أكثر مرونة؛ حيث تنص المادة 282 من قانون المعاملات المدنية الإماراتي على أن «كل إضرار بالغير يُلزم فاعله ولو غير مميز بضمان الضرر».
[48] انظر المادة 1242 من القانون المدني الفرنسي، كما تم تعديله بالمرسوم رقم 131 لسنة 2016.
[49] عرّف الفقيه الفرنسي «بلانيول» الخطأ بأنه إخلال بالتزام سابق، وهو من أشهر التعريفات الفقهية للخطأ.
[50] Voir Philippe le Tourneau, « Responsabilité ; généralités », Répertoire du droit civil, n° 114.
[51] هدى عبد الله، آفاق المسؤولية المدنية على ضوء النصوص القانونية والآراء الفقهية والاجتهادية، منشورات الحلبي الحقوقية، بيروت، 2020، ص13.
[52] La théorie du risque.
[53] بدأت بوادر هذا التحرّر من العنصر المعنوي للخطأ في القانون الفرنسي في قانون 3/1/1968 (المادة 489/2) الذي يُقر المسؤولية المدنية للمجنون ويُلزمه بتعويض الضرر الناتج عن فعله. وقد أقرّت محكمة التمييز الفرنسية كذلك في سنة 1984 مبدأ مسؤولية القاصر مدنيا عن فعل الشيء بقطع النظر عما إذا كان مميزًا أم لا، الدوائر المجتمعة لمحكمة التمييز الفرنسية 9/5/1984، JCP، 1984، II، 20256، تعليق باتريس جوردان.
[54] La faute objective.
[55] يبدو أن المشرع القطري قد تأثر بالقانون المدني الفرنسي الذي يسمح بإقرار المسؤولية المدنية للمجنون ويُلزمه بالتعويض، وفقا للمادة 489/2 من المجلة المدنية الفرنسية. التي تنص على أن كل من سبّب ضررًا للغير، ملزم بالتعويض، حتى ولو كان مصابًا بالجنون.
[56] سامي الجربي، شروط المسؤولية المدنية، مطبعة التسفير الفني، تونس، 2011، ص152.
[57] Les obligations accessoires.
[58] Voir Philippe le Tourneau, « Responsabilité ; généralités », Répertoire du droit civil, n° 134.
[59] كانت المادة 1135 من المجلة المدنية الفرنسية، قبل تعديل فيفري 2016 تنص على أن: «الاتفاقات لا تُلزم فقط ما تم التعبير عنه فيها، ولكن أيضًا بجميع النتائج التي تعطيها قواعد الإنصاف أو العرف أو القانون للالتزام وفقًا لطبيعته».
[60] الأمر رقم 75 المؤرخ في 28/9/1975 المُعدل والمُتمم.
[61] يوسف، ص185.
[62] Alexandra Mendoza-Caminda, « Le droit confronté à l’intelligence artificielle des robots: vers l’émergence de nouveaux concepts juridiques », Dalloz, 2016, p. 445.
[63] هشام كلو وسعيدة بوشارب، «المركز القانوني للروبوت على ضوء قواعد المسؤولية المدنية»، مجلة الاجتهاد القضائي، مج14 (مارس 2022)، ص495؛ محمد عرفان الخطيب، «المركز القانوني للإنسآلة: الشخصية والمسؤولية... دراسة تأصيلية مقارنة، قراءة في القواعد الأوربية للقانون المدني للإنسآلة لعام 2017»، مجلة كلية القانون الكويتية العالمية، س6، ع4 (ديسمبر 2018).
[64] انظر على سبيل المثال المادة 105 من مجلة الالتزامات والعقود التونسية التي تُعفي الصغير غير المميّز والمجنون من المسؤولية.
[65] حسن البراوي، «تأثير الشريعة الإسلامية على القانون المدني القطري: دراسة مقارنة»، المجلة الدولية للقانون، ع3 (2013)، ص17. https://qspace.qu.edu.qa/handle/10576/3852
[66] ميسون بوزيد: «القانون والتقنية»، مجلة دراسات قانونية، كلية الحقوق بصفاقس، 2021، ص43.
[67] كابلن، ص49.
[68] Voir la résolution du parlement européen du 16 février 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, Journal officiel de l’Union européenne, p. 240.
[69] يبدو من الضروري إخضاع الذكاء الاصطناعي إلى حد أدنى من الضوابط الأخلاقية، تُستلهم من الواقع المعيش، تفاديا للتجاوزات المُحتملة عند اتخاذه القرارات. ورغم أن الآلة تفتقر للمشاعر والأحاسيس، إلا أنه من الممكن تصنيع أجهزة ذكية تمتثل لضوابط أخلاقية. ويوجد تخصص في علوم الحاسبات يُسمى بالحوسبة العاطفية (كابلن، ص213).
[70] كابلن ، ص50.
[71] النظم الخبيرة (expert systems) هي عبارة عن تطبيق حاسوبي لاتخاذ القرار في مجالات متعددة.
[72] يوسف، ص97.
[73] La garde de la structure.
[74] Cass. Com. 30/6/1953, JCP, 1953, 7811, note Savatier.
[75] يوسف، ص97.
[76] Voir: Céline Castets-Renards, « Comment construire une intelligence artificielle responsable et inclusive », Dalloz, 2020, p. 225.
[77] ينطبق هذا الإشكال كذلك على الاكتشافات العلمية الحديثة في مجال الطب الحيوي، وما رافقها من إشكاليات أخلاقية مُستحدثة.
[78] انظر المادة 3 من القانون رقم 13 لعام 2016 بشأن حماية خصوصية البيانات الشخصية.
[79] Ezieddin Elmahjub, Junaid Qadir: "How to program autonomous vehicle crash algorithms: an Islamic ethical perspective", Journal of Information, communication and Ethics in Society, vol. 21, n° 4, 2023, p. 452.
[80] كابلن، ص212.
[81] حول مسألة الشخصية القانوني للذكاء الاصطناعي وخاصة للروبوتات؛ محمد عرفان الخطيب، «المركز القانوني...»، مرجع سابق.
[82] جراد، ص228.
[83] هناك من يشكك في جدوى إسناد الشخصية القانونية للذكاء الاصطناعي. انظر: جراد، ص260؛
Magali Bouteille-Brigant, « Intelligence artificielle et droit entre tentation d’une personne juridique du troisième type et avènement d’un Trans juridisme », Petites affiches, n° 62, du 27 mars 2018, p. 7.
[84] Voir: Magali Bouteille-Brigant, article précité, p. 7.
[85] أحمد سعد البرعي، «الالتزامات العقدية في تقنية الروبوت»، في كتاب مؤتمر الدوحة العاشر للمال الإسلامي- نحو التمويل الإسلامي 2.0، 2024، ص116.
[86] Miszairi Sitiris & Busari Saheed Abdullahi, "The legal capacity (Al-Ahlyya) of artificial intelligence from an Islamic perspective", Malaysian Journal of Syariah and Law, Vol. 12, Issue 1, April 2024, p. 40.