تجربة في لندن تكسر عقلية «التشغيل الدائم»
على مدى خمسة أيام في ديسمبر 2025، تحوّل مركز بيانات في لندن إلى مختبر حي لاختبار مفهوم «مرونة الطاقة» داخل بنى الذكاء الاصطناعي. وخلال التجربة، تمّت محاكاة أكثر من 200 «حدث شبكي»—وهي سيناريوهات يحتاج فيها مشغّل الشبكة إلى تعديل سريع للطلب—لقياس قدرة الموقع على خفض أو إعادة ضبط القدرة المسحوبة من الشبكة في الوقت الحقيقي، من دون المساس بتشغيل المهام الأساسية.
الفكرة هنا تتحدى النموذج الشائع لمراكز البيانات المصممة للعمل كأحمال ثابتة تُبقي الاستهلاك مرتفعاً طوال الوقت، لصالح نموذج أكثر ذكاءً ومرونة، وأكثر قابلية للتعايش مع شبكات كهرباء تعاني أصلاً من الاختناقات.
Emerald AI وNVIDIA وNational Grid… تحالف تقني حول «مركز بيانات واعٍ بالشبكة»
اعتمد الاختبار على برنامج تنسيق (orchestration) طوّرته Emerald AI، التي شاركت في الدراسة. وانضم إلى هذه الطبقة البرمجية لاعبون بارزون: NVIDIA لتوفير البنية التحتية المسرّعة لأحمال الذكاء الاصطناعي، وNational Grid كمشغّل للشبكة الكهربائية البريطانية، إضافة إلى Nebius وElectric Power Research Institute (EPRI)، وهو كيان غير ربحي معروف بأبحاثه في مجال الطاقة.
الهدف لم يكن تجميلياً: إثبات أن مركز بيانات الذكاء الاصطناعي يمكن أن يتحول من «حمل صلب» إلى أصل grid-aware يفهم قيود الشبكة ويستجيب لها، ما يفتح الباب أمام تشغيل أكثر مرونة للبنية التحتية السحابية.
خفض يصل إلى 40%… من دون المساس بالأحمال الحرجة
وفقاً لنتائج التجربة، نجح مركز البيانات في ضبط استهلاكه بما يتوافق مع المستوى المطلوب في كل «حدث» تمت محاكاته. وفي بعض الحالات، بلغ الخفض حتى 40% من القدرة المسحوبة، مع الحفاظ على التشغيل الطبيعي للأحمال الحرجة.
وهنا تكمن نقطة التحول: مرونة الطاقة لا تعني شيئاً لسوق Cloud وAI إذا كانت ستؤدي إلى تدهور التوفر أو الأداء أو استمرارية الخدمة، خصوصاً أن تدريب النماذج والاستدلال (inference) غالباً ما يرتبطان باتفاقيات مستوى خدمة صارمة.
استجابة شبه فورية: 30% خلال 30 ثانية
لم تتوقف الدلالات عند نسبة الخفض، بل شملت السرعة أيضاً. فقد أظهر أحد الأحداث انخفاضاً في الحمل بنسبة 30% خلال 30 ثانية فقط. عملياً، هذا يرفع مركز البيانات من مجرد مستهلك كبير للطاقة إلى مورد يمكن أن يساهم في استقرار الشبكة عبر استجابة شبه لحظية لتقلبات العرض والطلب.
كما رصدت التجربة سيناريو آخر خفضاً بنسبة 10% استمر حتى 10 ساعات، ما يشير إلى أن المرونة لا تقتصر على تعديلات سريعة قصيرة، بل يمكن أن تمتد زمنياً وتخدم إدارة الطلب خلال فترات الذروة الطويلة.
حتى كرة القدم تُحرّك منحنى الكهرباء… ومراكز البيانات تتفاعل
من أكثر اللقطات لفتاً للانتباه—والأقرب لفهم الجمهور—أن المركز استجاب لقمم الطلب خلال فترات الاستراحة بين شوطي مباريات كرة القدم. هذه اللحظات معروفة لدى مشغّلي الطاقة، إذ يتزامن تشغيل الأجهزة المنزلية (كالغلايات والأفران وغيرها) بشكل مفاجئ، ما يخلق قفزات سريعة في الاستهلاك.
قدرة مركز بيانات للذكاء الاصطناعي على «إزاحة» جزء من حمله خلال تلك الدقائق من دون تأثير على الخدمات الحرجة تشرح كيف يمكن للبنية التحتية الرقمية أن تندمج مع واقع الشبكة بدل أن تتحول إلى عبء دائم عليها.
من لندن إلى Virginia: «مصنع AI» مرن بقدرة 100 MW
تُقدَّم التجربة كبروفة لمشروع أكبر: «power-flexible AI factory» بقدرة 100 MW تخطط NVIDIA لتشغيله في Virginia. وفي تصريحات منسوبة إلى Josh Paker، المسؤول عن الاستدامة في NVIDIA، تُظهر نتائج الاختبار أن بنى مدعومة بتقنيات NVIDIA قادرة على تعديل الطلب في الوقت الحقيقي لدعم استقرار الشبكة.
الرسالة الضمنية واضحة: تسريع نشر مراكز بيانات الذكاء الاصطناعي مع تقليل الحاجة إلى تحديثات مكلفة للبنية الكهربائية—وهو عامل بات حاسماً في وقت أصبحت فيه توصيلات مراكز البيانات الجديدة قضية سياسية وتقنية حساسة.
المعادلة ليست بيئية فقط… بل اقتصادية أيضاً
تعتزم الجهات المشاركة مشاركة البيانات مع صناعة الذكاء الاصطناعي والجهات التنظيمية وصناع السياسات. وبينما يتصدر خطاب الانتقال الطاقي واجهة النقاش، هناك حافز مالي مباشر: قبول خفض الاستهلاك خلال الذروة قد يحسن فاتورة الطاقة عبر تفادي تسعير ساعات الذروة، وقد يسهل كذلك الحصول على موافقات الربط بالشبكة.
بل إن Steve Smith، رئيس National Grid Partners، أشار إلى طموح جلب عملاء إلى الشبكة خلال عامين، مستفيداً جزئياً من هذا النوع من المرونة. في سوق تتسارع فيه الحاجة إلى كهرباء مراكز البيانات، تتحول المرونة إلى رافعة دخول للسوق وليست مجرد خيار استدامة.
ماذا يعني ذلك لمستقبل Cloud والذكاء الاصطناعي؟
إذا تكررت هذه النتائج على نطاق أوسع، قد يتغير النقاش حول استهلاك الطاقة في مراكز بيانات الذكاء الاصطناعي: بدلاً من التفكير فقط في «القدرة القصوى المطلوبة»، يمكن للمشغّلين دمج آليات الجدولة الذكية للمهام، وتحديد الأولويات بين workloads، والتحكم الديناميكي في استهلاك الطاقة بحسب حالة الشبكة.
بالنسبة لمزودي Cloud، وشركات الاستضافة المشتركة (colocation)، والمدن التي تستضيف بنى الحوسبة عالية الكثافة، تبدو الفكرة عملية: تخفيف الضغط على الشبكة، الحد من أثر الطلب على أسعار الكهرباء، وتسريع نشر بنية الذكاء الاصطناعي—مع الحفاظ على الأداء الذي تتطلبه التطبيقات الحديثة.














