الذكاء البشري في مواجهة غريمه الاصطناعي… مَن يكسب معركة المصير؟
إذا كان عصر السرعة بدأ مع الثورة الصناعية في القرن التاسع عشر، والمحرك البخاري الذي طوّره الاسكوتلندي جيمس واط محدثاً ثورة في وسائل النقل والمواصلات، ففي أي عصر نحن اليوم؟ وهل نملك الوسائل التي تسمح لنا بالسيطرة على الإيقاع الذي نسير عليه أو الإيقاع نفسه هو الذي يسير بنا ويسيّرنا؟
نحن في عصر يمكننا أن نسميه «عصر ما بعد السرعة»، أو «العصر التكنولوجي»، أو «العصر الرقمي»، أو ربما «عصر الذكاء الاصطناعي»… في الواقع التسمية ليست مهمة، في حين أن حياة الأفراد والمجتمعات والكرة الأرضية صارت في سباق مع ما يخرج من المختبرات ومراكز الأبحاث والشركات «الشرهة». سباق لا يبدو حتى الآن أن الغلبة فيه ستكون للإرادة البشرية الواعية، بل لتقنيات كان مفترضاً أن تكون في خدمة البشر، ليتبيّن بسرعة أن مستخدميها باتوا أسراها، وتحولوا إلى «زبائن» و«رعايا» لدى الممسكين بزمام اللعبة…

بما أننا شهدنا ولادة الذكاء الاصطناعي، ونشهد يوماً بعد يوم تطوره المطّرد ودخوله كل جوانب الحياة، يجدر بنا أن نلتفت إلى أن المساءلة عن أفعال الفرد هي مبدأ أساسي في أي مجتمع. فالإنسان واعٍ، وعليه أن يتحمّل مسؤولية ما يقوم به، خصوصاً أنه لا أحد يستطيع التذرع بجهله القانون. ولكن ماذا عن أفعال «الآلة» التي تتجاوز إدراكنا، ولا نستطيع مجاراة سرعتها؟ وماذا عن نيّات من يقفون وراءها ومخططاتهم ورؤاهم للمستقبل؟
«الوكلاء»
لا خلاف اليوم على أن الحوكمة السليمة في مجال الذكاء الاصطناعي هي معضلة وضع مبادئ توجيهية للاستخدام الأخلاقي لهذه التقنية وفرضها لكيلا تفلت التكنولوجيا من عقالها وتذهب بنا إلى مستقبل مجهول. والواضح أن الدول فشلت حتى الآن في تحقيق أي نوع من التوازن بين الأخلاقيات والتقنيات…
لا بد هنا من فتح قوسين لشرح مصطلح جديد تقع عيوننا عليه كثيراً هذه الأيام، وهو «AI agents» أو «وكلاء الذكاء الاصطناعي»، والوكلاء هنا برامج أكثر تطوراً من «روبوت الدردشة Chatbot» الذي يستجيب للأوامر المباشرة؛ إذ إنها تستطيع استشعار الظروف الراهنة، واتخاذ القرارات، وتحديد الإجراءات اللازمة لتحقيق هدف معيّن بأقل مقدار من التدخل البشري. هي – إذاً – برامج تقوم على التفكير، والتخطيط، والذاكرة، والتعلّم من أجل العمل بشكل مستقل أو بالاندماج مع أدوات ومنصّات أخرى. ولكن أي تفكير؟ وأي تخطيط؟ ومن أدرج ماذا في ذاكرة هذه البرامج لتخرج لنا بما يؤثر في مساراتنا ومآلاتنا؟

التضليل والتحكّم
يكفي للدلالة على خطورة المسألة الحجم الكبير للمعلومات المضلِّلة الناتجة عن سوء الاستخدام المقصود وغير المقصود للذكاء الاصطناعي. وما يعنيه انتشار التضليل هو أننا ما زلنا عاجزين عن فهم هذه التكنولوجيا التي تتطوّر بسرعة مذهلة، وعن التحكم فيها. ويعود جزء من المشكلة إلى أنّ الشركات التي تدفع باتجاه أوسع نشر لـ«وكلاء الذكاء الاصطناعي» سعياً إلى الكسب المادي، حرصت على صرف انتباه الأفراد والجهات المنظِّمة عن الأضرار المحتملة.
يتحدث الرئيس التنفيذي لوحدة الذكاء الاصطناعي في «مايكروسوفت» مصطفى سليمان، البريطاني المولود لأب سوري، عن «ذكاء اصطناعي يُخيَّل للمرء أنه يمتلك درجة من الوعي». وهو ليس وعياً بشرياً بالمعنى المتعارف عليه، لكنّه يكفي لإطلاق نماذج قادرة على العمل بصورة ذاتية. وإذا استمر التغيّر بوتيرته السريعة، فإن الجيل المقبل من «وكلاء الذكاء الاصطناعي» لن يكتفي بتنفيذ وظائف في مجموعة واسعة من المجالات، بل سيقوم بذلك بشكل مستقل تماماً، من دون وجود أي عنصر بشري «داخل دائرة التحكم».
10 أخطار
ورد في الموقع الرسمي لشركة «IBM» ما حرفيته: «للذكاء الاصطناعي قيمة هائلة، غير أنّ الاستفادة الكاملة منه تستلزم مواجهة أخطاره المحتملة والتعامل معها. فالنُّظُم المتطورة نفسها التي تُستخدم لابتكار أدوية جديدة، وكشف الأمراض، ومواجهة تغيّر المناخ، والحفاظ على الحياة البرية، وحماية التنوع البيولوجي… يمكن أن تُنتج أيضاً خوارزميات منحازة مضرّة، وتقنيات تُهدّد الأمن والخصوصية، بل وجود الإنسان نفسه».
يعدّد الموقع عشرة أخطار: الانحياز، تهديدات للأمن السيبراني، مشكلات خصوصية البيانات، الأضرار البيئية، الأخطار الوجودية، انتهاك حقوق الملكية الفكرية، فقدان الوظائف، غياب المحاسبة والمسؤولية، غياب الشفافية، المعلومات المضلّلة والتلاعب.
يحتاج شرح كل هذه الأخطار إلى كتاب، لكن من الممكن التحدث عن الانحياز، وعنه جاء في الموقع المذكور: «لدى البشر انحياز فطري، ويمكن للذكاء الاصطناعي الذي نطوّره أن يعكس ذلك. فهذه الأنظمة تستوعب المواقف الموجودة في بيانات التدريب، والتي تظهر في خوارزميات التعلم الآلي ونماذج التعلم العميق التي تقوم عليها عملية تطوير الذكاء الاصطناعي. وقد تستمر هذه المواقف المكتسبة أثناء نشر الذكاء الاصطناعي، مما يؤدي إلى نتائج منحازة وعواقب غير مقصودة. ومن الأمثلة على ذلك: نظم تتبّع المتقدمين للوظائف التي تميّز على أساس الجنس، وأنظمة التشخيص الطبي التي تعطي نتائج أقل دقة للفئات التي عانت تاريخياً نقص الخدمات، وأدوات الشرطة الاستباقية التي تستهدف مجتمعات مهمشة بشكل غير منصف»…
في ما يخص الأمن السيبراني، يقول موقع «آي بي إم»: «تستطيع جهات خبيثة استغلال الذكاء الاصطناعي لشن هجمات إلكترونية، عبر تقليد الأصوات، وإنشاء هويات مزيفة، وإعداد رسائل تصيّد إلكتروني مقنّع، كل ذلك بهدف الاحتيال، والقرصنة، وسرقة هويات الأفراد، أو المساس بخصوصيتهم وأمنهم».
ويحذّر الموقع من خطر فقدان وظائف؛ إذ «يُتوقع أن يغيّر الذكاء الاصطناعي سوق العمل، مما يثير مخاوف من أن الأتمتة المدعومة بالذكاء الاصطناعي ستؤدي إلى الاستغناء عن العمال. وفقاً لتقرير المنتدى الاقتصادي العالمي، يتوقع نحو نصف المؤسسات المستطلعة أن يُحدث الذكاء الاصطناعي وظائف جديدة، في حين يرى ما يقارب ربعها أنه سبب محتمل لفقدان الوظائف. فعلى الرغم من أن الذكاء الاصطناعي يساهم في تعزيز أهمية وظائف مثل خبراء التعلم الآلي، ومهندسي الروبوتات، والاختصاصيين في التحوّل الرقمي، فإنه يؤدي أيضاً إلى تراجع بعض الوظائف في مجالات أخرى، مثل الوظائف الإدارية، والسكرتارية، وإدخال البيانات، وخدمة العملاء، على سبيل المثال لا الحصر».
الخطر الوجودي
في ما يخص الخطر الوجودي، حذّر العالم البريطاني – الكندي جيفري هينتون، المعروف بأنه أحد «آباء الذكاء الاصطناعي»، من أن التطور السريع لهذه التقنية «قد يتجاوز قريباً مستوى الذكاء البشري».
وشرح هينتون في لقاء جمعه والسيناتور الأميركي برني ساندرز في جامعة جورج تاون، كل الطرق التي يتوقع أن يغيّر بها الذكاء الاصطناعي المجتمع بشكل سلبي، موضحاً أن تخوّفه يقوم على أن النمو السريع للذكاء الاصطناعي يتجاوز وتيرة حياتنا اليومية.
وقال: «الأشخاص الذين يفقدون وظائفهم لن يجدوا وظائف أخرى يلتحقون بها… إذا أصبح الذكاء الاصطناعي ذكياً مثل البشر، أو إذا فاقهم ذكاءً، فكل وظيفة يمكن أن يقوم بها البشر يستطيع الذكاء الاصطناعي أن يقوم بها».

وعبّر عن قلقه من اتّساع الفجوة بين الأثرياء والفقراء بفعل الذكاء الاصطناعي، مما يوجِد «أرضاً خصبة للفاشية»، في حين يزداد الأغنياء ثراءً مع تراجع دخل الآخرين ومستوى معيشتهم.
ولفت هينتون أيضاً إلى أن الذكاء الاصطناعي قد يتمكن في المستقبل من التلاعب بالبشر و«السيطرة عليهم». وقال في مقابلة تلفزيونية مع «سي بي إس نيوز»: «أكثر الأشياء ذكاءً منك ستكون قادرة على التلاعب بك»، متوقعاً كون العالم على مسافة أقل من عقد واحد من الوصول إلى «الذكاء الاصطناعي العام» (AGI) «ولا بد من اتخاذ إجراءات لتجنّب هذا التهديد الوشيك».
وأعرب في المقابلة نفسها عن كونه «سعيداً إلى حدٍّ ما»؛ لأنه يبلغ من العمر 77 عاماً، فبذلك من المحتمل أن يفوته أسوأ ما سيأتي به الذكاء الاصطناعي للعالم.
القلق والثمن
من المؤكد أن السرعة التي يكتسب بها الذكاء الاصطناعي القدرة على العمل بشكل مستقل، يجب أن تثير قلق الجميع. وعلى الدول والمجتمعات أن تتساءل عن الثمن الذي يمكن دفعه مقابل التقدم التكنولوجي، قبل أن تزول القدرة على السيطرة، وينتقل المصير من الأدمغة البشرية إلى الأسلاك الكهربائية والرقائق الإلكترونية والخوارزميات العجيبة…
المرصد الذي أنشأته «اليونيسكو» لمراقبة الأخلاقيات والحوكمة في مجال الذكاء الاصطناعي فكرة جيدة، لكن غير كافية، فالمطلوب تَوافق الحكومات بكل شجاعة على وضع قواعد تَحكُّم صارمة على مستوى العالم، وتحقيق شفافية مطلقة، قبل أن يعمد مجنونٌ ما في مختبر سريٍّ ما إلى صنع فيروس قاتل عصيّ على كل الأدوية واللقاحات…

