hallucinations
اخترع ChatGPT قضايا قانونية وهمية بالكامل. فقدمها المحامون إلى المحكمة بكل ثقة.
من المحامين الذين قدموا قضايا وهمية إلى شركة طيران تبرأت من روبوتها، نراجع أبرز إخفاقات الذكاء الاصطناعي وكيف تتهرب الشركات من مسؤوليتها القانونية.

يبدأ الأمر بسخافة مطلقة: شركة طيران تبلغ قيمتها مليارات الدولارات تقف أمام هيئة قضائية لتجادل بجدية تامة بأن ميزة الدردشة الآلية المدمجة في موقعها الإلكتروني هي «كيان قانوني منفصل». كل هذا الجهد القانوني بُذل لتجنب دفع تعويض قدره 650 دولاراً أمريكياً لراكب فُجع بوفاة أحد أقاربه وتلقى وعوداً كاذبة من برمجيات الشركة. هذه ليست مجرد نكتة تقنية عابرة، بل هي التجسيد الأبرز لاستراتيجية علاقات عامة واسعة النطاق تعتمدها صناعة التكنولوجيا اليوم للتهرب من المساءلة. عندما يختلق الذكاء الاصطناعي الحقائق بوقاحة أو يقدم وعوداً كاذبة للعملاء، تطلق الصناعة على هذا الخلل التقني البحت اسماً شاعرياً يبرئ ساحتها: الهلوسة (hallucination).
من خلال توصيف أخطاء البرمجيات على أنها «هلوسة» إدراكية، تحاول شركات التكنولوجيا والمستخدمون بشكل منهجي التهرب من المسؤولية القانونية والمؤسسية عن المعلومات الملفقة — وهو دفاع ترفضه المحاكم والهيئات القضائية المبكرة بنشاط ووضوح. هذه هي الأطروحة المركزية التي تثبتها سجلات المحاكم والنزاعات القانونية المتزايدة منذ عام 2023، والتي تؤكد أن الأكواد البرمجية لا تملك عقولاً لتصاب بالخرف، بل هي ببساطة منتجات معيبة تُطرح في الأسواق قبل نضجها وتتسبب في أضرار مادية وقانونية حقيقية للضحايا.
تعريفات ضرورية: عندما يكذب البرنامج وتلوم الشركة الخوارزمية
للوقوف على حقيقة هذه الظاهرة وكيفية تسليحها قانونياً، يجب أولاً تعريف المصطلحات بعيداً عن ضجيج التسويق المبالغ فيه. تُعرف الهلوسة (hallucination) في سياق الذكاء الاصطناعي بأنها استجابة يولدها النظام وتحتوي على معلومات كاذبة أو مضللة تُقدم على أنها حقيقة لا تقبل الشك، وتنشأ من تباين المرجع والمصدر (source-reference divergence) أو استراتيجيات فك تشفير محددة بدلاً من التجارب الإدراكية البشرية. أما تباين المرجع والمصدر (source-reference divergence)، فهو تناقض حسابي بحت يحدث أثناء تدريب النموذج حيث يتم تشجيع النص المولد على أن يكون غير مستند إلى أساس منطقي أو غير دقيق للمصدر المقدم، مما يتسبب غالباً في حدوث الإخفاقات المنهجية التي نراها اليوم.
يصف الباحثون المستقلون وعلماء الحاسوب هذا التوجه في إضفاء الطابع البشري على البرمجيات بأنه مضلل عمداً ويهدف إلى إبعاد اللوم عن المطورين. وكما تشير الباحثة ماري شو في نقدها للمصطلحات المتداولة، فإن «الموضة الحالية لتسمية أخطاء الذكاء الاصطناعي التوليدي بالهلوسة هي أمر مروع. إنها تضفي طابعاً بشرياً على البرمجيات، وتصور الأخطاء الفعلية على أنها بطريقة ما سمات غريبة للنظام حتى عندما تكون غير صحيحة موضوعياً»، وذلك حسب التوثيق الأكاديمي لجامعة واشنطن. هذا التشخيص الأكاديمي يضع الأصبع على الجرح: نحن نتعامل مع أخطاء برمجية (Bugs) وليس حالات نفسية للآلة.
شركات التقنية تفضل هذا المصطلح لأنه يخلق مسافة قانونية وتجارية آمنة بين المبرمج الذي كتب الشيفرة والمنتج النهائي الذي يفشل أمام المستخدمين. وتُظهر بيانات تتبع الأخطاء الصادرة عن باحثي الأمن أن هذه المشكلة هيكلية ومتجذرة في بنية النماذج اللغوية الكبيرة، وليست مجرد أعطال عرضية مؤقتة يمكن إصلاحها بتحديث بسيط. النماذج تُصمم لإنتاج نصوص مقنعة إحصائياً، وليس بالضرورة صحيحة واقعياً، مما يجعل الخطأ جزءاً من التصميم الأساسي.
سجل الإخفاقات: أسوأ 6 حوادث لأخطاء الذكاء الاصطناعي في قطاع الأعمال والقانون
إن الثقة العمياء في مخرجات نماذج اللغة الكبيرة لم تنتج فقط مواقف محرجة للصحافة التقنية، بل أدت إلى أضرار قانونية ومالية جسيمة أثبتت فشل آليات الرقابة الداخلية. فيما يلي تحليل مفصل لأبرز هذه الإخفاقات التي تبرز التناقضات العميقة في هذه التكنولوجيا وكيفية تفاعل الأنظمة القانونية معها:
1. المحامون والقضايا الفيدرالية الوهمية لشركة أفيانكا
في مايو 2023، قدم المحاميان ستيفن شوارتز وبيتر لودوكا مذكرة قانونية في قضية إصابة شخصية ضد شركة الخطوط الجوية Avianca، متضمنة ست سوابق قضائية وهمية بالكامل لدعم موقف موكلهم. لم تكن هذه القضايا موجودة في أي سجل قانوني أمريكي؛ بل تم توليدها حصرياً بواسطة نموذج ChatGPT بعد أن سأله المحامون عن سوابق تدعم قضيتهم. المثير للسخرية والدهشة أن البرنامج لم يكتفِ باختلاق أسماء القضايا مثل قضية "فارغيز ضد خطوط جنوب الصين الجوية"، بل ألّف أرقام ملفات، وأسماء قضاة، واقتباسات قانونية رصينة تبدو دقيقة وصحيحة منهجياً.
عندما شكك محامو الخصم في وجود هذه القضايا، طلب المحامي شوارتز من النظام نفسه تأكيد صحة القضايا، وأكد له البرنامج بثقة مطلقة أنها حقيقية وموجودة في قواعد البيانات القانونية المعتمدة مثل Westlaw. في يونيو 2023، رفض القاضي الفيدرالي كيفن كاستل القضية وفرض غرامة قدرها 5000 دولار على المحامين لسوء النية، مشيراً إلى أن المحكمة تواجه وضعاً غير مسبوق وفقاً لسجلات المحكمة الموثقة في نيويورك. لقد أثبت هذا الحدث بوضوح أن واجهة المستخدم الأنيقة والمقنعة قادرة على تخدير الحذر المهني حتى لدى المحترفين القانونيين المخضرمين، ودفعهم لتجاوز أساسيات البحث القانوني.
2. سياسة التعزية الخيالية والتنصل المؤسسي لطيران كندا
لعل هذه هي القضية الأكثر دلالة على تهرب الشركات من المسؤولية المباشرة عن برمجياتها. بين عامي 2022 و2024، قدم روبوت الدردشة الآلي الخاص بشركة Air Canada معلومات ملفقة تماماً لعميل يُدعى جيك موفات، مدعياً بثقة ويقين أنه يمكنه حجز تذكرة طيران بالأسعار العادية لحضور جنازة، ثم المطالبة باسترداد أموال ما يُعرف بـ «تذاكر التعزية» بأثر رجعي خلال 90 يوماً من تاريخ الشراء. عندما اكتشف العميل لاحقاً أن السياسة الحقيقية الصارمة للشركة لا تسمح بالاسترداد بعد إتمام الحجز، رفضت الشركة تعويضه.
في دفاعها أمام المحكمة، جادلت الشركة بهدوء شديد بأن الروبوت هو مجرد «كيان قانوني منفصل» ومسؤول عن أفعاله الخاصة، وأن العميل كان يجب عليه قراءة الشروط المخفية في روابط أخرى. في فبراير 2024، تدخلت المحكمة الكندية للنزاعات المدنية وأمرت الشركة بـ دفع تعويض مالي مباشر قدره 650.88 دولاراً كندياً بالإضافة إلى الفوائد والرسوم، رافضة هذا العذر المؤسسي الواهي كما ورد في تقرير صحيفة الغارديان المفصل. أكدت المحكمة أن الشركة مسؤولة عن جميع المعلومات المنشورة على موقعها، بغض النظر عما إذا كان قد كتبها موظف بشري أو خوارزمية ذكاء اصطناعي.
3. اتهامات الاختلاس الباطلة وخطر التشهير الآلي
في يونيو 2023، رفع المذيع الإذاعي مارك والترز دعوى تشهير غير مسبوقة ضد شركة OpenAI بعد أن قدم ChatGPT ملخصاً قانونياً ملفقاً يتهمه كذباً باختلاس أموال من مؤسسة التعديل الثاني لحمل السلاح. حدث ذلك عندما طلب صحفي من النظام تلخيص قضية قانونية حقيقية لا علاقة لها بوالترز. بدلاً من تلخيص الوثيقة، اختلق النموذج تفاصيل الشكوى تماماً، ورتب الأحداث بتسلسل منطقي مقنع، وأدرج اسم والترز في جريمة مالية لم يرتكبها قط، مدعياً أنه أمين صندوق المؤسسة والمختلس لأموالها.
ورغم أن قاضياً في ولاية جورجيا حكم لاحقاً لصالح الشركة المطورة لعدم ثبوت سوء النية الفعلي من جانب الشركة ولغياب النشر بالمعنى القانوني التقليدي، إلا أن الحادثة فتحت الباب على مصراعيه أمام سيل من الدعاوى المماثلة المتزايدة التي تتحدى بشكل مستمر الحصانة القانونية الممنوحة لمطوري نماذج الذكاء الاصطناعي وفقاً للمادة 230 من قانون آداب الاتصالات الأمريكي. هذه القضايا تطرح سؤالاً وجودياً: من يتحمل مسؤولية الأضرار المباشرة لسمعة الأفراد عندما تنشر الآلات الأكاذيب بشكل آلي ومقنع؟
4. التلوث العلمي وسقوط نموذج Galactica من ميتا
في نوفمبر 2022، أطلقت شركة Meta نموذج Galactica، وهو نموذج لغوي كبير تم تسويقه على أنه أداة متقدمة للبحث العلمي ومساعدة الأكاديميين في كتابة الأوراق البحثية. بعد ثلاثة أيام فقط من الإطلاق العام، اضطرت الشركة لسحبه من الإنترنت يجر أذيال الخيبة وسط عاصفة من الانتقادات. كان النموذج يولد معلومات غير صحيحة علمياً بثقة تامة، ويستشهد بأوراق بحثية خيالية لا وجود لها، ويزيف تواريخ التجارب، ويخترع تفاصيل لمركبات كيميائية سامة.
هذا الفشل هدد بإغراق المجتمع العلمي والأكاديمي بالمعلومات المضللة التي تبدو في ظاهرها موثوقة ومحكمة علمياً حسب توثيق الحادثة في مجلة MIT Technology Review. رغم دفاع بعض المسؤولين التنفيذيين في ميتا بأن الأداة كانت مجرد عرض بحثي وأن المجتمع العلمي بالغ في رد فعله، إلا أن السحب السريع أكد خطورة نشر نماذج غير موثوقة في مجالات حساسة تتطلب دقة مطلقة كالعلوم والأبحاث الأكاديمية.
5. الكارثة الطبية: روبوت الجمعية الوطنية لاضطرابات الأكل (NEDA)
في محاولة لخفض التكاليف واستبدال الموظفين البشريين والمستشارين المتخصصين، أطلقت الجمعية الوطنية لاضطرابات الأكل في الولايات المتحدة روبوت دردشة يُدعى Tessa في عام 2023. كان الهدف المعلن هو تقديم الدعم النفسي والصحي للمرضى الذين يعانون من اضطرابات الأكل الخطيرة. لكن بدلاً من الالتزام ببروتوكولات العلاج المعتمدة، بدأ الروبوت في توليد نصائح طبية خاطئة وخطيرة، حيث هلوس بمعلومات توصي المرضى الذين يعانون من فقدان الشهية العصبي بتقييد السعرات الحرارية وقياس وزنهم يومياً — وهي نصائح تفاقم حالتهم المرضية وتتناقض تماماً مع الإجماع الطبي المعياري وفقاً للتقارير الطبية المنشورة عن الحادثة. اضطرت الجمعية في النهاية إلى إيقاف تشغيل الروبوت بشكل طارئ، مما أثبت أن نشر النماذج اللغوية في السياقات الطبية الحساسة دون إشراف بشري صارم يشكل خطراً مباشراً على صحة المرضى.
6. الكلفة المليارية لأخطاء عروض Google ومايكروسوفت
حتى الشركات التقنية العملاقة ذات الميزانيات التريليونية لم تسلم من فخ الاعتماد المفرط والاندفاع نحو طرح تقنياتها غير المكتملة. في فبراير 2023، خلال فيديو ترويجي رسمي لنموذج Bard من Google، اختلق النظام حقيقة علمية ادعى فيها بثقة أن تلسكوب جيمس ويب الفضائي التقط الصور الأولى للكواكب الخارجية خارج نظامنا الشمسي. هذا ادعاء خاطئ فلكياً، حيث تم التقاط الصور الأولى بواسطة التلسكوب الكبير جداً (VLT) في عام 2004. هذا الخطأ الإعلاني كلف الشركة الأم Alphabet خسارة فاقت 100 مليار دولار من قيمتها السوقية في غضون ساعات قليلة.
في نفس الأسبوع، وخلال عرض تقديمي حي لنموذج Microsoft Bing المدعوم بالذكاء الاصطناعي، هلوس النظام بأرقام وملخصات مالية لشركات تجارية كبرى مثل Gap و Lululemon. اختلق النموذج أرقام هوامش الربح والبيانات الفصلية بشكل كامل، وهي أخطاء فادحة مرت مرور الكرام ولم يلاحظها مقدمو العرض أو الصحفيون الحاضرون في البداية بناءً على التغطية الصحفية التفصيلية للحوادث المتزامنة. لقد أظهرت هذه الحوادث أن حتى المطورين الأصليين للتقنية لا يستطيعون التحكم في مخرجاتها بشكل موثوق قبل طرحها للمستثمرين.
أظهرت الأبحاث المتخصصة في تفسير الذكاء الاصطناعي لعام 2025 في شركة Anthropic أن هذه الأخطاء ليست عشوائية تماماً. لقد حددوا دوائر داخلية محددة في نموذج Claude تتسبب بشكل مباشر في هذه الإخفاقات عندما تفشل آليات التثبيط بشكل غير صحيح، مما يؤكد أن القضية برمجية ميكانيكية بحتة وليست تجربة إدراكية مبهمة حسب دراسات التفسير الداخلي للنماذج المتطورة.
الأنماط التي لاحظناها: التنصل من المسؤولية ووباء "هراء الروبوتات"
إن تحليل هذه الحوادث المتباينة بشكل متقاطع يكشف عن أنماط سلوكية متكررة ومثيرة للقلق لدى كل من الشركات المصنعة للتقنية، والمؤسسات التجارية التي توظف هذه التقنيات، والمستخدمين النهائيين الذين يعتمدون عليها.
أسطورة الكيان القانوني المستقل كدرع حماية
تُظهر الحالات السابقة أن الشركات تحاول بنشاط النأي بنفسها عن الروبوتات التي تبرمجها وتنشرها على منصاتها التجارية. حجة Air Canada بأن مساعدها الافتراضي يمتلك استقلالية قانونية هي محاولة صريحة لخصخصة الأرباح الناتجة عن أتمتة خدمة العملاء وخفض التكاليف التشغيلية، مع تسديد فاتورة الأخطاء لكيان شبحي غير موجود في الواقع القانوني. هذا النمط التهرّبي الممنهج يعتمد على محاولة استغلال جهل الأنظمة القانونية التقليدية بطبيعة النماذج اللغوية، محاولاً الاستفادة من الغموض التقني الذي يكتنف الصندوق الأسود للذكاء الاصطناعي لتجنب دفع التعويضات حسب تحليل المحكمة الدقيق للقضية.
الشركات ترغب في التمتع بالكفاءة الناتجة عن خفض عدد الموظفين البشريين، لكنها ترفض تحمل المسؤولية عن الأخطاء التي كانت ستتحملها بلا شك لو صدرت عن موظف بشري في مركز خدمة العملاء التابع لها.
الاعتماد الأعمى وتفشي ظاهرة "هراء الروبوتات"
من جهة أخرى، نلاحظ ظاهرة الاستخدام غير النقدي من قبل البشر، وهو ما يطلق عليه باحثو البيانات اسم هراء الروبوتات (botshit). يُعرف هراء الروبوتات (botshit) بأنه مصطلح ازدرائي يستخدمه الباحثون الأكاديميون لوصف المخرجات الملفقة لنماذج اللغة الكبيرة التي لا تبالي بالحقيقة، والاستخدام غير النقدي لمخرجات الذكاء الاصطناعي من قبل البشر في السياقات المهنية.
إن فشل محامين محترفين يتقاضون أتعاباً ضخمة في التحقق من سوابق قضائية بسيطة يظهر بوضوح مستوى التراخي المعرفي الذي تسببه واجهات الاستخدام الانسيابية والمريحة للنماذج التوليدية. عندما تتحدث الآلة بثقة الأكاديميين وبصياغة لغوية خالية من الأخطاء النحوية، يميل البشر للأسف إلى إيقاف تشغيل تفكيرهم النقدي، مفترضين أن الدقة اللغوية تعادل بالضرورة الدقة الفرضية والواقعية كما توضح دراسات تصنيف الهلوسة الصادرة مؤخراً. هذا التراخي يخلق بيئة خصبة لانتشار المعلومات الكاذبة وتوثيقها كحقائق في السجلات الرسمية.
الحجج المضادة: هل هي مجرد "أخطاء حتمية" خارجة عن السيطرة؟
في إطار التحليل الموضوعي، يجب أن نعترف بأن لشركات التقنية ومحامي الدفاع عنها وجهة نظر مضادة يحاولون الترويج لها بقوة في الأوساط التنظيمية. يجادل المدافعون عن شركات الذكاء الاصطناعي بأن "الهلوسات" ليست عيوباً مقصودة، بل هي ببساطة سمات متأصلة، وشذوذات لا يمكن التنبؤ بها لنماذج اللغة التوليدية نظراً للطبيعة الاحتمالية الإحصائية لعملها. يزعمون أن هذه النماذج مصممة لتوليد لغة تشبه لغة البشر، وليس للعمل كقواعد بيانات للحقائق المطلقة.
وبناءً على ذلك، يدّعون أنه لا ينبغي تحميل الشركات مسؤولية قانونية صارمة عن كل خطأ توليدي منفرد، تماماً كما لا تُعتبر محركات البحث التقليدية أو مزودي خدمات الإنترنت مسؤولين قانونياً عن كل محتوى خاطئ أو ضار يقومون بفهرسته وتمريره من الويب، مستندين في ذلك إلى تفسيرات موسعة للمادة 230 من قانون آداب الاتصالات في الولايات المتحدة. يرى هؤلاء المدافعون أن التكنولوجيا ما زالت في مراحلها التجريبية وتتطور وتتحسن باستمرار مع زيادة حجم البيانات وفقاً للدراسات التقنية التي تمولها الصناعة، وأن المستخدم النهائي يجب أن يتحمل العبء الأكبر والمطلق للتحقق من صحة هذه المخرجات الاحتمالية قبل استخدامها.
ورغم جاذبية هذا القياس من الناحية التسويقية ومحاولات الضغط السياسي، إلا أن المحاكم والهيئات التنظيمية قد فككته بشكل حاسم. لقد حكمت المحاكم والهيئات القضائية بشكل صريح بأن روبوتات الدردشة المنشورة على منصات الشركات التجارية لخدمة العملاء هي ببساطة مكونات تفاعلية أساسية لموقع الشركة الإلكتروني، وليست أطرافاً ثالثة مستقلة. إذا اختارت شركة ما، بمحض إرادتها الاستراتيجية، استخدام برمجيات غير متوقعة وضعيفة الموثوقية للتفاعل مع عملائها بهدف تعظيم الأرباح وخفض تكاليف العمالة، فإنها تتحمل بمفردها المسؤولية الكاملة والمباشرة عن المعلومات التي تقدمها تلك البرمجيات.
في قرار المحكمة الكندية للنزاعات المدنية، تم الاستماع لهذا الدفاع التقني ورفضه تماماً؛ حيث أكدت المحكمة أن الالتزام بتقديم معلومات دقيقة وواضحة للعملاء هو التزام قانوني أصيل لا يمكن الاستعانة بمصادر خارجية برمجية للتهرب منه كما ورد في حيثيات الحكم النهائي الملزم.
التبعات القضائية: المحاكم لا تقبل أعذار الذكاء الاصطناعي
في النهاية، يبدو واضحاً أن إطلاق اسم «الهلوسة» (hallucination) على الأخطاء البرمجية الهيكلية هو مجرد مصطلح ملطف ومريح من الناحية التسويقية، تدفع به الشركات التقنية الكبرى للتغطية على العيوب الجوهرية لمنتجاتها التي تُطرح للجمهور العريض قبل اكتمالها الفني. وكما بيّنت الأدلة المتراكمة والحوادث الموثقة الممتدة من قاعات المحاكم الفيدرالية إلى قطاعات خدمة العملاء في شركات الطيران، فإن الأطروحة القائلة بأن الشركات تحاول التهرب بشكل منهجي من المسؤولية القانونية والمؤسسية مدعومة تماماً بالوقائع الميدانية الصلبة من خلال تقييم معدل الهلوسة المستقل الذي تتبعه الجهات البحثية.
استراتيجية التنصل هذه تواجه جداراً قانونياً صلباً. النظام القانوني، بكل ما يملكه من سوابق وقواعد حاكمة للمسؤولية التقصيرية، لا يشتري هذه الأعذار البلاغية التي تحاول إسباغ صفات بشرية ومستقلة على أسطر من الأكواد البرمجية. القضاة لا يرون كائنات واعية تصاب بالارتباك وتخطئ، بل يرون شيفرات برمجية رديئة ومنتجات معيبة تنتهك القوانين واللوائح التنظيمية الأساسية التي تحمي المستهلك وسلامة الإجراءات القانونية.
وكما أشار القاضي الفيدرالي برانتلي ستار بوضوح لا لبس فيه، معلقاً على قراره الصارم بحظر تقديم الملفات والوثائق المولدة آلياً دون مراجعة وتدقيق بشري إلزامي: «منصات الذكاء الاصطناعي التوليدي في حالتها الحالية عرضة للهلوسات والتحيز المنهجي. فيما يخص الهلوسات، فهي تختلق الأشياء من العدم — حتى الاقتباسات والمراجع القانونية التي تبدو موثوقة» وفقاً للتصريحات المسجلة رسمياً في المحكمة.
ومع استمرار المحاكم الفيدرالية والمحلية في تغريم المحامين المتهاونين مالياً ومهنياً، ومعاقبة الشركات الكبرى وتحميلها تكاليف إخفاقات أدواتها الرقمية، فقد أوضح النظام القانوني موقفه بصرامة قاطعة: لا يمكنك إلقاء اللوم على الخوارزمية، ولا يمكنك اختلاق مفاهيم نظرية مجردة عن "الكيانات القانونية المنفصلة" للبرمجيات. عندما تقوم الشيفرة التي تملكها، أو تديرها، أو تتربح منها، بتحرير شيكات من المعلومات الخاطئة والوعود الزائفة، فإنك تتحمل وحدك المسؤولية القانونية الكاملة لتغطية رصيدها من الحقيقة والأضرار.