Deloitte
ديلويت تقاضت 290 ألف دولار مقابل تقرير حكومي. الذكاء الاصطناعي اختلق الاقتباسات القانونية مجانا.
تحليل لتقرير ديلويت الحكومي الأسترالي الذي تضمن مراجع قانونية وهمية ولدتها خوارزميات الذكاء الاصطناعي، وكيف أخفت الفضيحة الإخفاقات الحقيقية في نظام الرعاية.
يبدأ السعي الحكومي نحو الكفاءة والشفافية غالباً بوعود تقنية براقة، وينتهي في كثير من الأحيان بفواتير استشارية باهظة وتقارير مليئة بالهراء الآلي. في عالم الاستشارات والتدقيق، تُعتبر المؤسسات الكبرى، أو ما يُعرف بالـ Big Four، بمثابة ملاذ آمن للجهات الحكومية التي تبحث عن مراجعات مستقلة، صارمة، وموثوقة لا تقبل التشكيك. لكن عندما يتم تسليم مهام التدقيق الحساسة إلى خوارزميات تتنبأ بالكلمات بدلاً من التحقق من الحقائق، فإن النتائج تتجاوز مجرد الإحراج المؤسسي لتكشف عن خلل عميق في آلية اتخاذ القرار العام.
أدى استخدام شركة Deloitte لأدوات الذكاء الاصطناعي في صياغة تقرير حكومي أسترالي بقيمة 290 ألف دولار في عام 2025 إلى إنتاج أدلة ومراجع مختلقة، مما تسبب في حرف النقاش العام والرقابة عن الإخفاقات الحقيقية في نظام الرعاية الاجتماعية. إن الدمج غير المدقق للذكاء الاصطناعي التوليدي في الاستشارات الحكومية عالية المخاطر لا يؤدي فقط إلى إنتاج بيانات زائفة، بل يعمل كأداة إلهاء ملائمة تصرف الانتباه عن الإخفاقات المنهجية في السياسات العامة. تتجسد هذه الأطروحة بوضوح في هذه الفضيحة، حيث تحولت كارثة تقنية تتعلق بتقرير مدفوع الأجر إلى ستار دخان مثالي، طغى على النقاش الضروري حول أزمة نظام الرعاية.
تفاصيل العقد: تقرير مكلف وهلوسات مجانية
في ديسمبر 2024، توجهت الحكومة الأسترالية ممثلة بوزارة التوظيف وعلاقات العمل (DEWR) إلى خبراء القطاع الخاص لمراجعة سياساتها المتعلقة بالرعاية الاجتماعية. تم تكليف شركة Deloitte، وفقاً للتقارير المنشورة، بإجراء مراجعة مستقلة لما يُعرف باسم إطار الامتثال المستهدف (Targeted Compliance Framework). هذا الإطار هو النظام الآلي للعقوبات والرعاية الاجتماعية التابع للحكومة الأسترالية، والذي كان يواجه انتقادات حادة بسبب تأثيره القاسي على الباحثين عن عمل، مما استدعى إجراء تقييم مستقل وموضوعي لتحديد مسارات الإصلاح.
بلغت قيمة هذا العقد المبرم 440 ألف دولار أسترالي، وهو ما يعادل تقريباً 290 ألف دولار أمريكي، مقابل تقييم مهني يفترض أن يكون دقيقاً وشاملاً للنظام. ومع ذلك، عندما صدر التقرير المكون من 237 صفحة، لم يكن عملاً استشارياً رصيناً، بل كان واجهة لظاهرة خطيرة تُعرف باسم هلوسة الذكاء الاصطناعي (AI Hallucination). هذه الظاهرة تشير إلى الحالات التي ينتج فيها نظام الذكاء الاصطناعي معلومات كاذبة، غالباً عن طريق ملء التفاصيل المفقودة باستخدام ما يعتقد أنه مصادر معقولة، لأن النظام يتوقع الأنماط اللغوية بدلاً من التحقق من الحقائق.
لم تقتصر المشكلة على أخطاء لغوية أو مطبعية يمكن التغاضي عنها في مسودات العمل، بل امتدت لتشمل اختراع نصوص كاملة ونسبتها إلى جهات أكاديمية وقضائية بشكل مصطنع. هذا الخلل الهيكلي حول تقريراً حكومياً كان يُفترض أن يوجه سياسات تمس حياة مئات الآلاف من المواطنين إلى وثيقة خيال علمي قانوني. تطرح هذه الممارسات تساؤلات جدية حول معايير الجودة المتبعة في كبرى شركات الاستشارات العالمية عندما تقرر استبدال المحللين البشريين بواجهات برمجة التطبيقات بغية تعظيم الأرباح.
إطار الامتثال المستهدف: الضحية المنسية خلف خوارزميات التنبؤ
لفهم حجم الكارثة، يجب أولاً إدراك أهمية الموضوع الذي كان قيد المراجعة في التقرير الاستشاري. إطار الامتثال المستهدف ليس مجرد مجموعة من الإرشادات الإدارية الغامضة؛ بل هو نظام آلي حاسم يحدد متى وكيف يتم قطع الإعانات المالية عن المواطنين العاطلين عن العمل. يعتمد النظام على تراكم النقاط كعقوبات عندما يفشل المستفيد في حضور مقابلة عمل أو ملء استمارة معينة، مما يؤدي في النهاية إلى تعليق الدفعات المالية التي يعتمد عليها الأفراد في معيشتهم.
لطالما جادل المدافعون عن حقوق الإنسان والخبراء القانونيون بأن هذا النظام يفتقر إلى المرونة الإنسانية، ويعاقب الأفراد الأكثر ضعفاً في المجتمع بناءً على مقاييس بيروقراطية صارمة تفتقر للتفهم. كانت المراجعة التي أُسندت إلى شركة Deloitte تمثل فرصة نادرة لفحص هذه الادعاءات بأدوات تحليلية محايدة، وتدقيق البيانات، وتقديم توصيات سياسية تعيد التوازن لنظام الرعاية الاجتماعية الأسترالي الذي يعاني من أزمات ثقة.
لكن الاعتماد على الذكاء الاصطناعي في صياغة أجزاء أساسية من التقرير لم يفشل فقط في تقديم هذه الرؤية المحايدة، بل أساء استخدام الثقة العامة الممنوحة للشركة. عندما يولد نموذج لغوي نصوصاً تبدو علمية حول سياسات الرعاية الاجتماعية، فإنه لا يقوم بتحليل البيانات الحقيقية لمعاناة المواطنين. بدلاً من ذلك، يعيد تدوير النصوص المتاحة لتدريبه لتشكيل جمل مقنعة سطحياً، متجاهلاً تماماً السياق الاجتماعي والاقتصادي المعقد الذي يحكم هذه السياسات.
شبح "روبوديت": أتمتة التدقيق في أنظمة الأتمتة
لم تكن أستراليا غريبة عن الكوارث الناتجة عن الأتمتة الحكومية والاعتماد المفرط على الخوارزميات في اتخاذ القرارات. في الواقع، تأتي فضيحة التقرير الاستشاري في أعقاب واحدة من أكبر الكوارث في تاريخ الإدارة العامة الأسترالية: فضيحة "روبوديت" (Robodebt). كان نظام "روبوديت" عبارة عن خطة آلية غير قانونية لاسترداد الديون أدارتها الحكومة، واعتمدت على خوارزميات لإصدار إشعارات ديون تلقائية لمئات الآلاف من المواطنين دون تدخل بشري كافٍ.
أدى هذا النظام الآلي المعيب إلى معاناة مالية ونفسية واسعة النطاق، وانتهى بتسوية قانونية بمليارات الدولارات ولجنة تحقيق ملكية أدانت الاستخدام العشوائي للأتمتة في السياسات الاجتماعية. في سياق ما بعد "روبوديت"، كان يُنظر إلى إطار الامتثال المستهدف على أنه نظام يتطلب تدقيقاً استثنائياً وصارماً لضمان عدم تكرار أخطاء الماضي وتجنب إيذاء المواطنين مرة أخرى بناءً على قرارات آلية.
ومع ذلك، فإن قرار وزارة التوظيف بالاعتماد على شركة استشارية تستخدم الذكاء الاصطناعي التوليدي لاختصار الوقت والجهد في مراجعة نظام آلي آخر يمثل مفارقة قاسية. إنها حالة كلاسيكية تتمثل في استخدام التكنولوجيا المعيبة للتدقيق في التكنولوجيا المعيبة، مما يخلق حلقة مفرغة من غياب المساءلة وتآكل الثقة العامة. لقد تم استبدال ظلم الخوارزميات الحسابية بكسل الخوارزميات التوليدية.
آلية الانهيار التقني: لماذا يختلق الذكاء الاصطناعي المراجع؟
كيف يمكن لأداة تكنولوجية متقدمة تُستخدم في بيئات مؤسسية أن تختلق اقتباسات قضائية من العدم؟ الإجابة تكمن في البنية الأساسية للنماذج اللغوية الكبيرة. هذه النماذج لا تمتلك قواعد بيانات موثوقة للحقائق للبحث فيها، ولا تمتلك قدرة إدراكية تميز بين الحقيقة والخيال. بدلاً من ذلك، هي خوارزميات إحصائية معقدة تقوم حصرياً بالتنبؤ بالكلمة التالية بناءً على الأنماط والنصوص التي تدربت عليها سابقاً.
عندما طُلب من الأداة التوليدية دعم الحجج القانونية أو الاستشارية في التقرير، أدركت الخوارزمية أن الهيكل القياسي للتقارير الحكومية والأكاديمية يتطلب هوامش، استشهادات، ومراجع قانونية رصينة. ولتلبية هذا النمط اللغوي، ولّدت الأداة نظاماً شكلياً يبدو أكاديمياً وموثوقاً، لدرجة أنها اختلقت دراسات أكاديمية متكاملة ومراجع وهمية، وهو ما اكتشفه لاحقاً باحث من جامعة سيدني.
الأمر الأكثر إثارة للقلق هو اختراع اقتباس قضائي كامل ونسبته إلى قاضٍ حقيقي في المحكمة الفيدرالية. هذه الحادثة تشير بوضوح إلى أن الخوارزميات التوليدية لا تحترم حدود المؤسسات القانونية، وتتعامل مع السوابق القضائية كبنية لغوية يمكن محاكاتها بدلاً من كونها حقائق قانونية وتاريخية ملزمة. غياب الرقابة البشرية المرافقة لهذا التوليد كان الفشل الأكبر الذي ارتكبه فريق الاستشارة المشرف على المشروع.
التسلسل الزمني لاكتشاف الكارثة: من التكليف إلى استرداد الأموال
لفهم كيفية انهيار نظام الرقابة في واحدة من كبرى الشركات الاستشارية، يجب تتبع التسلسل الزمني الدقيق للانهيار، والذي استمر لعدة أشهر دون أن يلاحظه أحد في السلسلة الإدارية لشركة التدقيق أو داخل أروقة وزارة التوظيف التي تسلمت العمل.
بدأ العمل على مراجعة إطار الامتثال في ديسمبر 2024. استغرقت عملية الصياغة عدة أشهر، ليتم تسليم التقرير الأولي، الذي يُفترض أنه خضع لمراجعة النظراء والتدقيق الداخلي الصارم، للحكومة. لكن الفشل المنهجي لم يتم اكتشافه من قبل مدققي الجودة في الشركة، بل جاء الاكتشاف لاحقاً من قبل جهات خارجية كانت تقرأ التقرير بعين نقدية حقيقية.
الدكتور كريستوفر رودج، وهو باحث قانوني، كان يقوم بمراجعة التقرير لأغراض أكاديمية خاصة به. أثناء مراجعته، اكتشف أن الوثيقة كانت مليئة بأخطاء الاقتباسات والمصادر الوهمية، وهو اكتشاف أكدته لاحقاً التغطية الإعلامية بشكل واسع ومكثف. لاحظ رودج أن بعض السوابق القضائية المذكورة لا يمكن العثور عليها في أي سجل قانوني مسجل، وأن الدراسات المنسوبة لجامعات مرموقة لا أثر لها في قواعد البيانات الأكاديمية العالمية.
بعد أن تم تسليط الضوء على الأخطاء من قبل الأكاديميين المستقلين، دخلت الشركة في مرحلة طوارئ لاحتواء الضرر. بحلول أواخر سبتمبر 2025، أصدرت الشركة الاستشارية نسخة مصححة ومنقحة من التقرير. وفي هذه النسخة الجديدة، أُجبرت الإدارة على وضع إفصاح صريح يؤكد استخدامها لنماذج الذكاء الاصطناعي التوليدي في إعداد الوثيقة، وهو اعتراف نقدي لم يكن موجوداً بشكل بارز عند تسليم التقرير الأولي.
وكجزء من تداعيات هذه الفضيحة المهنية التي تداولتها الأوساط المالية باهتمام بالغ، وافقت الشركة صاغرة على إعادة الدفعة الأخيرة من عقدها المالي للحكومة الأسترالية كتعويض مباشر عن الخلل الفادح في جودة الخدمة المقدمة للقطاع العام.
حجة الدفاع: هل ينجو "التحليل الأساسي" من التلوث الاستشهادي؟
كما هو الحال في أي أزمة مؤسسية معقدة، كان لا بد من وجود استراتيجية للدفاع للحد من الأضرار التي لحقت بالسمعة وتبرير الأموال التي تم إنفاقها. تجادل وزارة التوظيف الأسترالية وقيادات الشركة الاستشارية ومناصرو التبني السريع للذكاء الاصطناعي بأنه على الرغم من وجود بعض المراجع الخاطئة، إلا أن جوهر التحليل والتوصيات في التقرير ظل دقيقاً ولم يتأثر جذرياً بالهلوسة.
يستند هذا الدفاع المؤسسي إلى فكرة أن الخوارزميات تم استخدامها كأداة مساعدة في التنسيق والصياغة الهامشية وليس كمولد للاستنتاجات المركزية. وقد أصدر المتحدث باسم الوزارة تصريحاً نُقل عبر الإذاعة الوطنية أكد فيه أن المراجعة المستقلة للضمان أثبتت وجود بعض الحواشي والمراجع غير الصحيحة، في محاولة واضحة لحصر المشكلة في إطار أخطاء فنية سطحية لا تمس مصداقية العمل.
لكن هذا الدفاع المنهجي يتجاهل آلية بناء التقارير الاستشارية القانونية والسياسية من الأساس الجذري. الاعتماد على نظام يولد أدلة قانونية وأكاديمية وهمية يقوض بطبيعته الثقة المطلوبة للتدقيق الحكومي الذي تتأسس عليه القرارات. لا يمكن للقارئ فصل التحليل السليم المزعوم عن الهلوسة التقنية دون إعادة تقييم التقرير يدوياً بالكامل، مما يلغي القيمة الأساسية التي تم دفع مئات الآلاف من الدولارات من أجلها. عندما يتم اختراع الأدلة التي تدعم الاستنتاجات، فإن الاستنتاجات نفسها تصبح ملوثة.
التناقض المؤسسي: مكافأة الفشل بمزيد من الخوارزميات
التداعيات المباشرة للحادثة شملت إعادة الدفعة الأخيرة من العقد، وهو ما يمثل نقطة تراجع واضحة في سجل الشركة المهني. ولكن ما يلفت الانتباه حقاً، ويطرح تساؤلات حول حوكمة الشركات الحديثة، هو الاستجابة المؤسسية الأوسع داخل الشركة وفي قطاع الاستشارات العالمي بشكل عام.
فبدلاً من التراجع المؤقت وإعادة تقييم عمليات دمج الخوارزميات التوليدية في سير العمل الأساسي لضمان جودة المخرجات، سارعت الشركة في اتجاه معاكس ومندفع تماماً. فبعد وقت قصير من افتضاح أمر الفشل الذي كلفها استرداد أموال وجلب لها انتقادات مهنية حادة، أشار الخبراء إلى أن هذه الحادثة المحرجة لن تؤدي على الأرجح إلى إيقاف أو إبطاء تبني الشركات لأدوات الذكاء الاصطناعي.
هذا التوجه المتسارع يعزز الاستنتاج بأن قيادات الشركات ترى في تبني الأتمتة التوليدية ضرورة تسويقية واستثمارية لا غنى عنها، حتى وإن أثبتت التكنولوجيا عجزها المتكرر في مهام حساسة تتطلب دقة متناهية. التوسع العنيف في نشر هذه الأدوات بعد فشل موثق ومحرج يُظهر مدى استعداد المؤسسات الكبرى لقبول هامش مرتفع من الأخطاء من أجل تقليل التكاليف التشغيلية والمشاركة في سباق الابتكار التقني.
كما أشار برايان لابيدوس، خبير التخطيط المالي، في رسالة تم توثيقه في التغطيات الإعلامية للحادثة: «يؤكد هذا الموقف على درس حاسم للمحترفين: الذكاء الاصطناعي ليس صانعاً للحقيقة؛ إنه مجرد أداة تهدف إلى توفير إجابات تتناسب مع أسئلتك المسبقة.»
سوابق تقنية: عندما تفشل الأتمتة في القطاعات الحساسة
ليست هذه المرة الأولى التي تتسبب فيها التكنولوجيا التوليدية في أزمات ثقة مهنية وتقوض مصداقية المؤسسات الكبرى. قطاع الخدمات المهنية المتخصصة يشهد سلسلة متصلة من الإخفاقات التي تتبع نمطاً واضحاً من الثقة المفرطة وغير المبررة في مخرجات الآلة الخوارزمية.
ففي عام 2023، تم فرض عقوبات تأديبية صارمة على محاميين أمريكيين استخدما ChatGPT لصياغة مذكرات قانونية قُدمت رسمياً للمحكمة الفيدرالية. تضمنت هذه المذكرات الطويلة مراجع مقتبسة لحالات قضائية لا وجود لها في الواقع، وتم توبيخ المحاميين بشدة لتقديم سوابق قانونية خيالية فيما اعتُبر درساً عملياً ومؤلماً في قصور الكفاءة التكنولوجية.
وهناك حالات فشل مشابهة في مجال النشر والصحافة، مثل مقالات سي نت (CNET) المالية التي كُتبت بالكامل بواسطة خوارزميات توليدية واكتُشف لاحقاً أنها مليئة بالأخطاء الحسابية والمفاهيمية الأساسية. كذلك لا يمكن للخبراء نسيان تجربة Bard الأولى الكارثية من شركة جوجل، حينما قدم النموذج معلومات غير دقيقة ومضللة حول إنجازات فلكية في إعلان ترويجي، مما كلف الشركة خسائر مليارية في قيمتها السوقية خلال ساعات.
تؤكد جميع هذه السوابق التقنية قاعدة واحدة لا تقبل الجدل: النماذج اللغوية قادرة على محاكاة الشكل المهني ببراعة فائقة، لكنها تفتقر تماماً إلى فهم المضمون، مما يجعلها أدوات غير موثوقة عند استخدامها بدون طبقات سميكة من المراجعة البشرية في القطاعات الحرجة التي تتطلب دقة مطلقة مثل صياغة السياسات.
التكنولوجيا كستار دخان: الإلهاء المنهجي عن الأزمات الحقيقية

ومع ذلك، فإن الدرس الأهم من الحادثة الأسترالية يتجاوز مجرد التحذير من القصور التقني وضعف جودة النماذج التوليدية؛ إنه يتعلق بشكل مباشر بكيفية استغلال هذا الفشل التكنولوجي على المستوى السياسي والإعلامي لتجنب المساءلة. وفقاً لتحليل معمق أُجري مع الباحثين وتم بثه على شبكة إي بي سي، فإن الفضيحة التقنية بحد ذاتها لعبت دوراً غير متوقع في حرف مسار النقاش العام بعيداً عن القضايا الجوهرية.
لقد كان الغرض الأساسي والجوهري من التقرير الاستشاري هو تقييم سياسات الرعاية الاجتماعية، والذي يمثل نظاماً حيوياً واجه انتقادات لاذعة بسبب آثاره السلبية والمباشرة والمدمرة أحياناً على المواطنين المعتمدين على إعانات الدولة. لكن، كما يجادل المحللون الذين علقوا على القضية، فإن الدراما الفضائحية المحيطة بالاستشارات الآلية صرفت الانتباه بنجاح منقطع النظير عن القصة الحقيقية: أزمة الرعاية الاجتماعية نفسها والتخبط الحكومي.
أصبحت القصة المركزية والمسيطرة في وسائل الإعلام تتعلق برعونة استخدام الروبوتات في كتابة التقارير، بدلاً من التركيز النقدي على كيف يفشل نظام الرعاية في تلبية احتياجات الفئات الأكثر ضعفاً. تحول النقاش المجتمعي والسياسي من التساؤل عن عدالة السياسات الاقتصادية، إلى التساؤل السطحي عن دقة واجهات برمجة التطبيقات واستخداماتها.
الخلاصة: الثمن الحقيقي لخصخصة التدقيق
بالعودة إلى الأطروحة الأساسية التي بُني عليها هذا التحليل، توضح الحقائق المتسلسلة والموثقة بدقة أن دمج أدوات التوليد النصي في مهام التدقيق الحكومية لم يقتصر تأثيره المدمر على الإضرار بموثوقية تقرير مكلف، بل تعداه ليعمل كأداة إلهاء إعلامي وسياسي فعالة. عندما تفشل الاستشارات الكبرى في التدقيق الأساسي للحقائق نتيجة الاعتماد على الأتمتة المفرطة، فإن الضحية ليست فقط الميزانية العامة التي أُنفقت سدى، بل أسس المساءلة الديمقراطية ذاتها.
بدلاً من مواجهة صناع السياسات والمسؤولين بخطط الرعاية الاجتماعية المعيبة والآثار المدمرة لأنظمتهم على المواطنين، انشغل الرأي العام ومؤسسات الرقابة بمناقشة خوارزميات التنبؤ النصي واقتباسات المحاكم المختلقة. تُثبت هذه الحادثة أن الخوارزميات التوليدية، في تصميمها التقني الحالي، ليست أداة ملائمة للتدقيق الصارم ولا بديلاً للمراجعة البشرية المستقلة المتشككة؛ بل هي مجرد محرك لإنتاج نصوص قابلة للتصديق ومولدة للجدل في آن واحد.
الفشل التقني في هذه الحالة أصبح أداة إلهاء مثالية حمت الإخفاقات المنهجية المتعمدة في السياسة العامة من الرقابة الحقيقية. هذا الإلهاء المستمر وتحويل الانتباه عن جوهر القضايا العامة يمثل التكلفة الحقيقية والفادحة التي دفعها المجتمع، وهي تكلفة معنوية وسياسية تفوق بكثير وتتجاوز القيمة المالية لأي عقد استشاري تم استرداده.