للمرة الثانية خلال عامين، نشر المئات من المثقفين، وأغلبهم من الغربيين، رسالة مفتوحة تدعو إلى فرض حظر أو وقف اختياري على الذكاء الاصطناعي الفائق (ASI) إلى أن يكون هناك إجماع علمي واسع النطاق على أنه يمكن القيام به بأمان ويمكن السيطرة عليه.
وتتناقض المخاوف الغربية بشأن مسار الذكاء الاصطناعي مع الخطاب الصيني، الذي يفترض أن التكنولوجيا يجب أن تخدم الصالح العام الجماعي من خلال الحكم الدقيق. يُنظر إلى الذكاء الاصطناعي أولاً وقبل كل شيء على أنه أداة للتقدم التكنولوجي.
وبين هذين الموقفين يكمن احتمال ثالث: أخلاقيات النية السيبرانية التي تدمج الوعي الأخلاقي في الغرب مع البراغماتية النظامية في الشرق. في علم التحكم الآلي، النية ليست فكرة لاحقة ولكنها نقطة البداية.
الغرض الأخلاقي
إن الدعوات الغربية لإبطاء أو إيقاف تطوير الذكاء الاصطناعي تنبع من الخوف الأخلاقي من الطموح البشري غير المنظم.
منذ عصر التنوير، صاغ الفكر الغربي التقدم باعتباره تحررًا من خلال المعرفة، ولكن نفس التقليد كان مسكونًا أيضًا بالذنب البروميثيسي ــ الشعور بأن الإبداع دون قيود يؤدي إلى الكارثة. فمن رواية “فرانكنشتاين” لماري شيلي إلى مشروع مانهاتن، تتكرر هذه الازدواجية: فالسعي إلى التفوق يواجه حدود السيطرة.
وفي حالة الذكاء العام الاصطناعي (AGI)، انتقل القلق من المختبر إلى مجلس الإدارة. يتم الآن تطوير الذكاء الاصطناعي إلى حد كبير من قبل الشركات الخاصة التي تثير واجباتها الائتمانية – تجاه المساهمين وليس المواطنين – أسئلة أخلاقية عميقة.
والقضية، كما زعم العديد من الخبراء، لا تكمن في أن الذكاء الاصطناعي قد يستيقظ ذات يوم، بل في أن الأنظمة التي تشكل بالفعل اقتصاداتنا وبيئات المعلومات لدينا لا تتوافق مع الصالح العام. عندما تعمل الخوارزميات على تحسين المشاركة أو الربح أو المراقبة، فإنها تعمل على تضخيم الانقسام والتلاعب باهتمام الإنسان وتقويض الثقة.
تمثل الرسائل المفتوحة الموقعة من قبل كبار خبراء التكنولوجيا مثل يوشوا بنجيو، وجيفري هينتون، وستيف وزنياك اعترافًا جماعيًا بأن الأخلاقيات لا يمكن الاستعانة بمصادر خارجية لقوى السوق. إن البعد الأخلاقي لاهتمامهم لا يكمن في الخوف من الذكاء نفسه، بل في الشك في نقاء النوايا وراء خلقه.
وفي عالم حيث أصبح شعار “التحرك بسرعة وكسر الأشياء” هو الشعار غير الرسمي للإبداع، والذي شاعه “إخوان التكنولوجيا” في وادي السليكون، فإن المطالبة بالتوقف مؤقتاً تشكل، على نحو لا يخلو من المفارقة، نداء للتأمل، إن لم يكن العودة إلى الهدف الأخلاقي.
البراغماتية مقابل جنون العظمة
يكشف النهج الذي تتبعه الصين في تطوير الذكاء الاصطناعي عن توجهات مختلفة بشكل ملحوظ. وفي حين تصور وسائل الإعلام الغربية غالبا صعود الصين في مجال الذكاء الاصطناعي باعتباره سلطويا أو غير نقدي، فإن الدافع الأساسي أقل إيديولوجيا منه حضاريا.
إن التقليد الفكري الصيني – المتجذر في النزعة الإنسانية الكونفوشيوسية، والطبيعية الطاوية، واللاثنائية البوذية – كان ينظر منذ فترة طويلة إلى الذكاء باعتباره سلسلة متواصلة داخل الطبيعة وليس منافسًا للإنسانية. في هذه النظرة العالمية، تعتبر التكنولوجيا امتدادًا للنظام البشري، وليست تهديدًا له.
وبالتالي فإن الدولة الصينية تتعامل مع الذكاء الاصطناعي باعتباره أداة للانسجام والكفاءة، وأداة لتجديد شباب الأمة وتحسين الحكم. وتركز استراتيجياتها الطويلة الأمد في مجال الذكاء الاصطناعي -التي تمتد لعقود من الزمن وليس الدورات الانتخابية- على التكامل والتطبيق، وليس على التكهنات الميتافيزيقية. وبينما يناقش المفكرون الغربيون ما إذا كان ينبغي للذكاء الاصطناعي العام أن يكون موجودا، يتساءل صناع السياسات الصينيون عن كيفية مواءمة الذكاء الاصطناعي مع الاستقرار الاجتماعي والإنتاجية والتوازن البيئي.
وتنعكس هذه الروح العملية في الثقافة السياسية للبلاد. وتسمح الرقابة المركزية بدرجة من التنسيق لا تستطيع الديمقراطيات الليبرالية الغربية محاكاتها بسهولة. وفي حين يخشى الخبراء الغربيون من قوة الشركات غير المنظمة، فإن المخططين الصينيين يفترضون التنظيم حسب التصميم – الاعتقاد بأن الأنظمة الاجتماعية يمكن أن توجه التكنولوجيا نحو المنفعة الجماعية.
وكما كتب الفيلسوف الصيني الحديث تو وايمينج، فإن “الإنسانية هي العامل الواعي بذاته للتحول الخلاق للسماء والأرض”. وبهذا المعنى، فإن التكنولوجيا ليست خصمًا للنظام الأخلاقي، بل هي امتداد لتفويض الإنسان للمشاركة بشكل مسؤول في الإبداع الكوني.

إن افتقار الصين إلى الانزعاج النسبي بشأن الذكاء الاصطناعي لا يعني ضمنا السذاجة.
بل إنه يعكس الثقة في الوكالة البشرية؛ وأن نفس المؤسسات القادرة على توجيه التصنيع والتحديث يمكنها أيضًا إدارة الذكاء الاصطناعي. ولا ينصب التركيز على الحد من التكنولوجيا بقدر ما ينصب على دمجها ضمن إطار أخلاقي سياسي يؤكد على الانسجام والتقدم الجماعي.
وبالنسبة للمراقبين الغربيين، قد تبدو هذه الثقة راضيةً عن الذات بشكل خطير. ومع ذلك فإن المرآة تقطع الاتجاهين. لقد أنتجت المجتمعات الغربية، التي شكلتها قرون من الفردية والعلمانية، قوة تكنولوجية لا مثيل لها، ولكنها قللت أيضا من الهدف الجماعي. وبالتالي فإن المناقشة حول الذكاء الاصطناعي العام تكشف عن أزمة ثقافية أعمق: عدم القدرة على تحديد ما تريده البشرية بالفعل من التكنولوجيا.
وعندما يدعو الخبراء الغربيون إلى وقف تنفيذ عقوبة الإعدام، فإنهم لا يحذرون ببساطة من الفشل الفني؛ إنهم يعترفون بعدم اليقين بشأن الاتجاه الأخلاقي. وفي غياب إحساس واضح بالصالح العام، فإن حتى أفضل الإطار التنظيمي سوف يفشل في توجيه الإبداع. وفي هذا الصدد، فإن الخطر الحقيقي لا يكمن في الذكاء الاصطناعي، بل في النية المصطنعة: غياب النية الأخلاقية الحقيقية وراء الطموح التقني.
العدسة السيبرانية
لقد نسي مجتمع الذكاء الاصطناعي الأمريكي جذوره في علم التحكم الآلي، وهو علم الأنظمة والتغذية الراجعة والتحكم الذي ظهر في منتصف القرن العشرين. يقدم علم التحكم الآلي، الذي طوره نوربرت وينر في الأربعينيات، إطارًا قويًا للتوفيق بين الأخلاق والبراغماتية. تتكشف العملية السيبرانية في ثلاث خطوات: التخطيط والقياس والتوجيه.
تحدد “الخطة” الهدف أو النية – ما نسعى إلى تحقيقه ولماذا. “التحديد الكمي” يترجم تلك النية إلى معايير قابلة للقياس – كيف يبدو النجاح من خلال مصطلحات يمكن ملاحظتها. يتضمن “التوجيه” التغذية الراجعة والتعديل والتصحيح، مما يضمن بقاء النظام في المسار الصحيح نحو الهدف.
من خلال تطبيقها على حوكمة الذكاء الاصطناعي، تفرض علم التحكم الآلي نظامًا للتفكير. قبل تصميم أي نظام، يجب علينا توضيح النية التي توجهه. إذا كانت هذه النية مفيدة بحتة – الربح أو الهيمنة أو الكفاءة – فإن حلقات ردود الفعل سوف تؤدي في النهاية إلى تضخيم تلك القيم.
ولكن إذا كانت النية أخلاقية – ازدهار الإنسان، والتوازن، والاستدامة – فإن آليات ردود الفعل نفسها يمكن أن تحافظ على حلقة حميدة.

وهكذا فإن علم التحكم الآلي يربط بين الاهتمام الغربي بالوضوح الأخلاقي مع التركيز الشرقي على الانسجام المنهجي. إنها لا ترفض السلطة ولكنها تصر على أن القوة تصحح نفسها بنفسها. وبهذا المعنى، فهو يحول السؤال الأخلاقي – “هل ينبغي لنا أن نبني الذكاء الاصطناعي العام؟” – إلى سؤال وظيفي: “ما الذي نحاول الحفاظ عليه وكيف نضمن أن ردود أفعالنا تجعلنا متسقين معه؟”
النية كبوصلة أخلاقية
تسلط العدسة السيبرانية الضوء على الدور المركزي للقصدية، وهي نقطة يؤكدها علماء أخلاقيات الذكاء الاصطناعي الكونفوشيوسي والمعاصر. إن فكرة تو وايمينج عن “رن” (قلب الإنسان) تصف الوعي الأخلاقي الراسخ الذي يوجه العمل المسؤول.
تُترجم رن إلى مصطلحات سيبرانية، وهي الإشارة الأخلاقية التي تعمل على استقرار حلقة التغذية الراجعة. وبدون ذلك، تنجرف الأنظمة – سواء كانت ميكانيكية أو اجتماعية – إلى الفوضى.
وفي خطاب الذكاء الاصطناعي الغربي، يتوافق هذا مع “مشكلة التوافق”. ولكن في حين تسعى المواءمة التقنية إلى ترميز الأخلاق في الخوارزميات، فإن الأخلاقيات السيبرانية تبدأ في مرحلة أبعد: مواءمة النية البشرية حتى قبل أن تبدأ الترميز.
ومن هذا المنظور، لا يعتمد الذكاء الاصطناعي الأخلاقي على إضفاء الأخلاق على الآلة، بل على تنقية أهداف مبدعيها. كما أنها وضعت علم التحكم الآلي في مكانه الصحيح: في قلب عصرنا التكنولوجي.

إن الخوف الغربي من أن الذكاء الاصطناعي العام قد يدمر البشرية يعكس فقدان الثقة في قدرتنا على القيادة؛ ويعكس الهدوء الصيني الثقة في قدرة النظام الاجتماعي على التنسيق.
يشير علم التحكم الآلي إلى أن كلا وجهتي النظر غير مكتملتين. ما يهم ليس من يتحكم في الذكاء الاصطناعي – المهندس الفردي أم الدولة – ولكن ما إذا كان نظام التحكم شفافًا وحساسًا للتغذية الراجعة ومتوافقًا مع الأخلاقيات.
ومن الممكن أن تتعمق المواقف الغربية والصينية المتباينة تجاه الذكاء الاصطناعي، إذا تركت دون رادع، وتتحول إلى صدع حضاري: أحدهما مشلول بسبب القلق الأخلاقي، والآخر مدفوع بالطموح العملي. ومع ذلك، فهم يحملون أيضًا رؤى تكميلية.
الغرب يجلب اليقظة الأخلاقية. وتجلب الصين البصيرة النظامية. ويكمن التحدي في دمج كليهما في علم التحكم الآلي الكوكبي للنية – وهو نموذج حوكمة يعترف بالبعد الإنساني للتكنولوجيا مع الحفاظ على الواقعية العملية.

