أصدرت هيئات الأرصاد الجوية والسلطات تحذيرات من أمواج مد عاتية وإرشادات في عدد من المناطق في أعقاب زلزال بلغت قوته 8.8 درجة ضرب شبه جزيرة كامتشاتكا في أقصى شرق روسيا.
لكن بعض سكان هاواي واليابان والساحل الغربي لأميركا الشمالية لجأوا إلى أدوات الذكاء الاصطناعي للحصول على تحديثات حدت من هذه الجهود، وفقاً لموقع SFGate الإخباري.
وقال الموقع إن خاصية “نظرة عامة” التي تعتمد على الذكاء الاصطناعي ويقدمها محرك البحث جوجل، قدمت معلومات غير دقيقة حول تحذيرات السلامة الصادرة عن السلطات في هاواي وأماكن أخرى.
وسلطت هذه المشاكل الضوء على الدور المتنامي لأدوات الذكاء الاصطناعي في توفير المعلومات للأشخاص، وإلى هامش الخطأ الذي يرافق الاستعانة بمثل هذه التكنولوجيا.
أخطاء جروك
“جروك”، وهو روبوت محادثة طورته شركة xAI التابعة لإيلون ماسك ومُدمج في موقع التواصل الاجتماعي إكس، أخبر مستخدمي الموقع مراراً أن تحذير تسونامي في هاواي قد تم إلغاؤه، بينما لم يتم إلغاؤه في الواقع، مستشهداً بمصادر غير صحيحة.
ومساء الثلاثاء الماضي، كتب “جروك” أن مركز تحذير تسونامي في المحيط الهادئ التابع للخدمات الوطنية للأرصاد الجوية ألغى تحذير تسونامي في هاواي في الساعة 3:23 مساءً بالتوقيت المحلي “بعد أن أظهرت البيانات عدم وجود أمواج كبيرة، ولم تحدث أي آثار – هاواي آمنة”. وهو ما كان غير صحيح في ذلك الوقت.
وفي الواقع، أبقت هيئة الأرصاد الجوية في هونولولو تحذيراتها سارية حتى بعد الساعة 10:30 مساءً، عندما خفّضت مستوى التوجيه إلى تحذير.
ورداً على شكاوى في هذا الخصوص، قال جروك لأحد المستخدمين على منصة إكس: “سنعمل على تحسين الدقة”.
وأبلغ مستخدمو وسائل التواصل الاجتماعي عن مشاكل مماثلة في “ملخصات” الذكاء الاصطناعي التي يقدمها محرك البحث جوجل بعد تلقي معلومات غير دقيقة حول تحذيرات السلامة الصادرة عن السلطات في هاواي وأماكن أخرى. ولحسن الحظ، هدأ خطر تسونامي بسرعة ليلة الثلاثاء وصباح الأربعاء دون أن يُحدث أضراراً جسيمة.
ووصف أحد منتقدي جوجل الذي أضاف أمر “Ai+” في محرك البحث، المعلومات التي قدمها الموقع بأنها “خاطئة بشكل خطير”.
وكتب نيد أدريانس، المتحدث باسم جوجل، قائلاً: “يُحدّث البحث بسرعة وتلقائياً بناءً على محتوى الويب الجديد وأحدث المعلومات.. في هذه الحالة، يُظهر البحث الآن ميزة تنبيه مخصصة تُوفر معلومات مُحدثة للأشخاص الذين يبحثون عن هذا الموضوع”.
تحديات
ومن أكثر المشكلات في نماذج الذكاء الاصطناعي الحالية أنها أحياناً تقدم معلومات غير صحيحة أو “تهلوس” إجابات لا أساس لها من الصحة، ومع ذلك تفعل ذلك بثقة كبيرة توهم المستخدم بدقتها.
ولا تقف المشكلة عند هذا الحد، بل تمتد إلى انحيازات ناتجة عن البيانات التي تدربت عليها النماذج، والتي ربما تكون غير متوازنة أو غير محدثة.
ورغم دقة وكفاءة العديد من النماذج، إلا أنها غالباً ما تعمل كصندوق أسود؛ إذ تقدم النتيجة دون أن تعلن عن مصادرها، وهذا الغموض ربما يكون غير ضار في المهام البسيطة، لكنه يصبح خطيراً عندما يتعلق الأمر بقرارات تمس حياة الناس، كالتشخيص الطبي، أو اتخاذ قرارات مالية أو قانونية.