لسنوات عديدة، قامت شركة Nvidia الأمريكية بتشكيل أسس الذكاء الاصطناعي الحديث. تعد وحدات معالجة الرسومات (GPUs) الخاصة بها نوعًا متخصصًا من شرائح الكمبيوتر المصممة في الأصل للتعامل مع متطلبات معالجة الرسومات والرسوم المتحركة. ولكنها أيضًا رائعة بالنسبة للحسابات المتكررة التي تتطلبها أنظمة الذكاء الاصطناعي.
وبالتالي، ساهمت هذه الرقائق في دعم الصعود السريع لنماذج اللغات الكبيرة ــ التكنولوجيا التي تقف وراء روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ــ وأصبحت المحرك المألوف وراء كل اختراق كبير تقريبا في مجال الذكاء الاصطناعي.
جلس هذا الجهاز بهدوء في الخلفية بينما كان معظم الاهتمام يتركز على الخوارزميات والبيانات. إن قرار Google بتدريب Gemini على شرائحها الخاصة، والتي تسمى وحدات المعالجة الموترية (TPUs)، يغير تلك الصورة. وهو يدعو الصناعة إلى النظر مباشرة إلى الآلات التي تقف وراء النماذج وإلى إعادة النظر في الافتراضات التي بدت ثابتة لفترة طويلة.
هذه اللحظة مهمة لأن حجم نماذج الذكاء الاصطناعي بدأ يكشف حدود رقائق الأغراض العامة. مع نمو النماذج، تزداد المتطلبات المفروضة على أنظمة المعالجة إلى مستويات تجعل من المستحيل تجاهل أوجه القصور الخفية.
يكشف اعتماد Google على TPUs عن صناعة بدأت تدرك أن اختيارات الأجهزة ليست مجرد تفضيلات تقنية ولكنها التزامات استراتيجية تحدد من يمكنه قيادة الموجة التالية من تطوير الذكاء الاصطناعي.
يعتمد برنامج Gemini من Google على الأنظمة السحابية التي تعمل على تبسيط المهمة الصعبة المتمثلة في تنسيق الأجهزة أثناء التدريب (التحسين) على نطاق واسع لنماذج الذكاء الاصطناعي.
يعكس تصميم هذه الرقائق المختلفة اختلافًا جوهريًا في النية. تعد وحدات معالجة الرسومات من Nvidia ذات أغراض عامة ومرنة بما يكفي لتشغيل مجموعة واسعة من المهام. تم إنشاء وحدات TPU للعمليات الرياضية الضيقة في قلب نماذج الذكاء الاصطناعي.
تسلط المقارنات المستقلة الضوء على أن كبسولات TPU v5p يمكنها أن تتفوق في الأداء على أنظمة Nvidia المتطورة في أعباء العمل المضبوطة للنظام البيئي لبرامج Google. عندما تتماشى بنية الشريحة وبنية النموذج ومجموعة البرامج بشكل وثيق، فإن التحسينات في السرعة والكفاءة تصبح طبيعية وليست قسرية.
تعمل خصائص الأداء هذه أيضًا على إعادة تشكيل مدى سرعة قيام الفرق بالتجربة. عندما تعمل الأجهزة بالتنسيق مع النماذج التي تم تصميمها للتدريب عليها، يصبح التكرار أسرع وأكثر قابلية للتطوير. وهذا مهم لأن القدرة على اختبار الأفكار بسرعة غالبا ما تحدد أي المنظمات تبتكر أولا.
هذه المكاسب التقنية ليست سوى جزء واحد من القصة. إن تدريب أنظمة الذكاء الاصطناعي المتطورة أمر مكلف ويتطلب موارد حاسوبية هائلة. تواجه المؤسسات التي تعتمد فقط على وحدات معالجة الرسومات تكاليف عالية ومنافسة متزايدة على العرض. ومن خلال تطوير أجهزتها الخاصة والاعتماد عليها، تكتسب Google مزيدًا من التحكم في الأسعار والتوفر والاستراتيجية طويلة المدى.
وقد لاحظ المحللون أن هذا النهج الداخلي يضع جوجل في تكاليف تشغيلية أقل مع تقليل الاعتماد على الموردين الخارجيين للرقائق. جاء تطور ملحوظ بشكل خاص من Meta حيث استكشفت اتفاقية بمليارات الدولارات لاستخدام سعة TPU.
عندما يقوم أحد أكبر مستهلكي وحدات معالجة الرسومات بتقييم التحول نحو المسرعات المخصصة، فإن ذلك يشير إلى أكثر من مجرد فضول. ويشير هذا إلى إدراك متزايد بأن الاعتماد على مورد واحد قد لا يكون الإستراتيجية الأكثر أمانًا أو الأكثر كفاءة في الصناعة التي يشكل فيها توفر الأجهزة القدرة التنافسية.
تثير هذه التحركات أيضًا تساؤلات حول كيفية وضع مقدمي الخدمات السحابية لأنفسهم. إذا أصبحت وحدات TPU متاحة على نطاق أوسع من خلال الخدمات السحابية من Google، فقد تتمكن بقية السوق من الوصول إلى الأجهزة التي كانت تعتبر في السابق ملكية خاصة. ومن الممكن أن تؤدي التأثيرات المتتابعة إلى إعادة تشكيل اقتصاديات التدريب على الذكاء الاصطناعي بما يتجاوز الأبحاث الداخلية في جوجل.
ماذا يعني هذا بالنسبة لنفيديا
كان رد فعل الأسواق المالية سريعًا على الأخبار. انخفض سهم Nvidia حيث كان المستثمرون يزنون إمكانية قيام موفري الخدمات السحابية بتقسيم احتياجاتهم من الأجهزة عبر أكثر من مورد واحد. حتى لو لم تحل وحدات معالجة الرسومات (TPU) محل وحدات معالجة الرسوميات بالكامل، فإن وجودها يقدم منافسة قد تؤثر على الأسعار والجداول الزمنية للتطوير.
إن وجود بدائل موثوقة يضغط على Nvidia للتحرك بشكل أسرع وتحسين عروضها وجذب العملاء الذين يرون الآن أكثر من مسار قابل للتطبيق للأمام. ومع ذلك، تحتفظ نفيديا بمكانة قوية.
تعتمد العديد من المؤسسات بشكل كبير على CUDA (منصة حوسبة ونموذج برمجة طورته Nvidia) والنظام البيئي الكبير للأدوات وسير العمل المبني حولها.
يتطلب الابتعاد عن تلك البيئة جهدًا هندسيًا كبيرًا وقد لا يكون ممكنًا للعديد من الفرق. تستمر وحدات معالجة الرسومات في تقديم مرونة لا مثيل لها لأحمال العمل المتنوعة وستظل ضرورية في العديد من السياقات.
ومع ذلك، بدأ الحديث حول الأجهزة في التحول. تهتم الشركات التي تصنع نماذج الذكاء الاصطناعي المتطورة بشكل متزايد بالرقائق المتخصصة التي تم ضبطها لتناسب احتياجاتها المحددة. مع نمو النماذج بشكل أكبر وأكثر تعقيدًا، تريد المؤسسات سيطرة أكبر على الأنظمة التي تدعمها. لقد أصبح من الصعب تبرير فكرة أن عائلة شرائح واحدة يمكنها تلبية جميع المتطلبات.
يوضح التزام Google بـ TPUs لـ Gemini هذا التحول بوضوح. إنه يوضح أن الرقائق المخصصة يمكنها تدريب نماذج الذكاء الاصطناعي ذات المستوى العالمي وأن الأجهزة المصممة خصيصًا للذكاء الاصطناعي أصبحت أساسية للتقدم المستقبلي.
كما أنه يوضح التنوع المتزايد للبنية التحتية للذكاء الاصطناعي. لا تزال شركة Nvidia هي المهيمنة، لكنها الآن تتقاسم المجال مع البدائل القادرة بشكل متزايد على تشكيل اتجاه تطوير الذكاء الاصطناعي.
أصبحت أسس الذكاء الاصطناعي أكثر تنوعًا وأكثر تنافسية. لن تأتي مكاسب الأداء من بنيات النماذج الجديدة فحسب، بل من الأجهزة المصممة لدعمها.
تمثل استراتيجية TPU الخاصة بشركة Google بداية مرحلة جديدة حيث سيتم تحديد المسار للأمام من خلال مجموعة واسعة من الرقائق ومن خلال المؤسسات الراغبة في إعادة التفكير في الافتراضات التي كانت تربط الصناعة ببعضها ذات يوم.
علاء محاسب محاضر أول في الذكاء الاصطناعي والتعلم الآلي، جامعة بورتسموث
تم إعادة نشر هذه المقالة من The Conversation بموجب ترخيص المشاع الإبداعي. إقرأ المقال الأصلي.

