site-logo
site-logo
site-logo

انضمت وكالة الأمن القومي إلى وكالة الأمن السيبراني وأمن البنية التحتية ووكالات أخرى لتقديم إرشادات حول دمج الذكاء الاصطناعي في تكنولوجيا العمليات

انضمت وكالة الأمن القومي إلى وكالة الأمن السيبراني وأمن البنية التحتية ووكالات أخرى لتقديم إرشادات حول دمج الذكاء الاصطناعي في تكنولوجيا العمليات

انضمت وكالة الأمن القومي إلى وكالة الأمن السيبراني وأمن البنية التحتية ووكالات أخرى لتقديم إرشادات حول دمج الذكاء الاصطناعي في تكنولوجيا العمليات

تنضم وكالة الأمن القومي إلى وكالة الأمن السيبراني وأمن البنية التحتية لتقديم إرشادات
شعار Shieldworkz

بريوكث ك ف

تنضم وكالة الأمن القومي إلى وكالة الأمن السيبراني وغيرها لتقديم إرشادات حول دمج الذكاء الاصطناعي في تكنولوجيا التشغيل 

أصدرت مؤخرًا وكالة الأمن القومي بالتعاون مع وكالة الأمن السيبراني وأمن البنية التحتية (CISA)، ومركز الأمن السيبراني الأسترالي التابع لمديرية الإشارات الأسترالية (ASD's ACSC)، وآخرون الوثيقة ورقة معلومات الأمن السيبراني (CSI)، "مبادئ الدمج الآمن للذكاء الاصطناعي في تكنولوجيا التشغيل.

تصف هذه التقرير العديد من الطرق التي يمكن بها دمج الذكاء الاصطناعي في تكنولوجيا التشغيل وتوضح أربعة مبادئ أساسية يحتاج مالكو ومشغلو البنية التحتية الحيوية إلى اتباعها للاستفادة من الفوائد وتقليل مخاطر دمج الذكاء الاصطناعي في بيئات تكنولوجيا التشغيل. توضح المبادئ الموصى بها إرشادات لفهم الذكاء الاصطناعي؛ دراسة استخدام الذكاء الاصطناعي في مجال تكنولوجيا التشغيل؛ إنشاء أطر لحوكمة وموثوقية الذكاء الاصطناعي؛ ودمج ممارسات السلامة والأمن في أنظمة الذكاء الاصطناعي وأنظمة تكنولوجيا التشغيل المدعومة بالذكاء الاصطناعي. في منشور المدونة اليوم، نستعرض بعمق المبادئ الموصى بها.  

الخلفية 

إذا كانت سنة 2024 تسمى سنة تجريب الذكاء الاصطناعي، فإننا في عام 2025 رأينا وجهة نظر أكثر دقة وأرضية حول ظهور الذكاء الاصطناعي. كانت هذه النظرة أكثر قربًا من الواقع وأبرزت التحديات الفريدة المرتبطة بتبني الذكاء الاصطناعي عبر القطاعات. مع ازدياد وعي الأعمال بالذكاء الاصطناعي، بدأ قادة الأعمال في إيلاء المزيد من الانتباه لرؤية الذكاء الاصطناعي بشكل أكثر شمولية بعيدًا عن الضجة. كما تدخل المنظمون وبدأوا بإصدار الإرشادات والنصائح أيضًا.   

قبل بضعة أيام بينما كنا في حدث، أعلن CISA جنبًا إلى جنب مع وكالة الأمن القومي، ومكتب التحقيقات الفيدرالي، ووكالات الأمن السيبراني المأخوذة من المملكة المتحدة وأستراليا وكندا وألمانيا ونيوزيلندا عن إصدار وثيقة بارزة تسمى مبادئ الدمج الآمن للذكاء الاصطناعي في تكنولوجيا التشغيل (OT). قمنا بمراجعتها خلال رحلتنا جواً.  

هذا ليس مجرد قائمة تحقق للامتثال أخرى. بدلاً من ذلك، يبدو أنه استجابة مطلوبة بشدة لنقطة احتكاك حرجة عبر بيئات تكنولوجيا التشغيل. بدأت الطبيعة التخمينية للذكاء الاصطناعي (التي "تخمن" بناءً على البيانات) والطبيعة الحتمية لتكنولوجيا التشغيل (حيث يجب إغلاق صمام أو توقف توربين) في التداخل وكانت المؤسسات تبحث عن بعض أنواع الإرشادات لاحتواء هذا الجني بطريقة ما حتى لا يتحول الأمر كله إلى رد فعل انشطار غير محكم بدون ضوابط.  

إذا كنت تدير بنية تحتية حيوية تعتمد على تكنولوجيا التشغيل تتضمن الطاقة أو المياه أو التصنيع أو النقل، فقد تكون هذه الإرشادات نجمك الجديد "القطبي". إليك تحليل مفصل للمبادئ الأربعة التي تعرف الآن معيار الرعاية للذكاء الاصطناعي في تكنولوجيا التشغيل وفقًا للوثيقة. 

مبدأ "الحاجة إلى المعرفة": فهم قبل النشر 

لمعالجة التحديات الفريدة لدمج الذكاء الاصطناعي في بيئات تكنولوجيا التشغيل، يحتاج مالكو ومشغلو البنية التحتية الحيوية إلى التحقق من تصميم نظام الذكاء الاصطناعي بشكل آمن وفهم الأدوار والمسؤوليات من خلال دورة حياة نظام الذكاء الاصطناعي. على غرار نماذج الملكية المختلطة المستخدمة مع الأنظمة السحابية، يجب على المالكين والمشغلين تحديد هذه الأدوار والمسؤوليات بوضوح والتواصل بشأنها مع الشركة المصنعة لنظام الذكاء الاصطناعي، ومورد تكنولوجيا التشغيل، وأي دور تكامل نظام أو موفر خدمة مُدار. 

تتحرك الإرشادات بعيدًا عن "الذكاء الاصطناعي لأجل الذكاء الاصطناعي". الخطوة الأولى تعليمية ومعمارية بحتة. لا يمكنك تأمين ما لا تفهمه. 

  • تحديد المخاطر: يقدم الذكاء الاصطناعي مخاطر لا تواجهها تكنولوجيا التشغيل التقليدية، مثل الانحراف النموذجي (حيث تنخفض دقة الذكاء الاصطناعي بمرور الوقت مع تقادم الآلات) والهلوسة (حيث يخترع الذكاء الاصطناعي أنماط البيانات). 

  • رفع كفاءة العمل: فرق المهارات حقيقية. قد لا يعرف المشغلون الذين يعرفون كيفية إصلاح مضخة كيف يقومون بإصلاح شبكة عصبية. تُلزم الإرشادات تدريب الكوادر ليس فقط على استخدام الذكاء الاصطناعي، بل على فهم أنماط الفشل فيه. 

  • تأمين دورة الحياة: يبدأ الأمان من مستوى الشيفرة. يعني تبني مبادئ "الأمان حسب التصميم" فحص سلسلة إمداد الذكاء الاصطناعي قبل أن يلمس خوارزم واحد أرض المصنع. 

المبرر التجاري: "هل نحتاج فعلاً إلى الذكاء الاصطناعي لهذا؟" 

قبل دمج نظام الذكاء الاصطناعي في بيئتهم الخاصة بتكنولوجيا التشغيل، يجب على مالكي ومشغلي البنية التحتية الحيوية تقييم ما إذا كانت تقنيات الذكاء الاصطناعي هي الحل الأنسب لاحتياجاتهم ومتطلباتهم المحددة مقارنة بالتقنيات الأخرى. يجب على مالكي ومشغلي البنية التحتية الحيوية النظر فيما إذا كانت الإمكانيات الحالية تلبي احتياجاتهم قبل متابعة حلول الذكاء الاصطناعي الأكثر تعقيدًا وتطورًا. في حين يأتي الذكاء الاصطناعي بمزايا فريدة، إلا أنه يعتبر تقنية متطورة تحتاج إلى تقييم مستمر للمخاطر. 

يجب أن يتضمن هذا التقييم عوامل مختلفة، بما في ذلك الأمان، الأداء، التعقيد، التكلفة، وتأثيره على سلامة بيئة تكنولوجيا التشغيل اعتمادًا على التطبيق المحدد، وتقييم الفوائد والمخاطر لاستخدام تقنيات الذكاء الاصطناعي مقابل المتطلبات الوظيفية التي يجب على التطبيق تلبيةها. يجب أن يفهم مالكو ومشغلو البنية التحتية الحيوية قدرة المنظمة الحالية على الحفاظ على نظام الذكاء الاصطناعي في بيئتهم الخاصة بتكنولوجيا التشغيل والتأثير المحتمل لتوسيع سطح المخاطر في البيئة، مثل متطلبات الأجهزة والبرامج الإضافية لمعالجة البيانات من خلال النماذج أو البنية التحتية الأمنية الإضافية لحماية سطح الهجوم الموسع.  
هذا ربما يكون الجانب الأكثر فريدة في الإرشادات. إنه يتحدى القادة لتبرير شمول الذكاء الاصطناعي. التوافق واضح: تعدد التعقيد هو عدو الأمان. 

  • المخاطر مقابل الفائدة: هل تتجاوز كفاءة جهاز استشعار حراري يعمل بالذكاء الاصطناعي خطر هجوم سيبراني فيزيائي؟ إذا كان جهاز التحكم PID التقليدي يعمل، فلتتمسك به. 

  • شفافية البيانات: في تكنولوجيا التشغيل، البيانات هي الحقيقة. إذا تم تدريب نموذج الذكاء الاصطناعي على بيانات أجهزة استشعار سيئة، فسيتخذ قرارات خطيرة. يجب عليك فحص سلامة بيانات التدريب بنفس جديتك لسلامة الآلات الميكانيكية. 

  • شفافية الموردين: حقبة "الصندوق الأسود" قد انتهت. يجب عليك المطالبة بالشفافية من الموردين بشأن كيفية عمل نماذجهم، ومن أين تأتي البيانات، ومن يمتلك حق الوصول إلى أوزان النموذج. 

الحوكمة: بناء الضوابط 

تعتبر هياكل الحوكمة الفعالة ضرورية للدمج الآمن للذكاء الاصطناعي في بيئات تكنولوجيا التشغيل. يتضمن ذلك وضع سياسات وإجراءات وهياكل مسؤولية واضحة لعمليات اتخاذ القرار المعتمدة على الذكاء الاصطناعي داخل تكنولوجيا التشغيل. يجب أن يتضمن هيكل حوكمة الذكاء الاصطناعي الجهات المعنية الرئيسية المدرجة أدناه، وأي من موردي الذكاء الاصطناعي اللازمين للحفاظ على الرقابة أثناء الشراء والتطوير والتصميم والنشر والعمليات. 

المعنيين الرئيسيين في آليات حوكمة الذكاء الاصطناعي 

القيادة. إن تأمين التزام القيادة العليا، بما في ذلك المدير التنفيذي والمسؤول الرئيسي لأمن المعلومات، ضروري لتأسيس إطار حوكمة ذكاء اصطناعي قوي. يساعد ذلك في ضمان استثمار قيادة المنظمة بشكل كامل في إدارة دورة الحياة الأمنية لأنظمة الذكاء الاصطناعي واعتبار مخاطر الأمن المرتبطة بالذكاء الاصطناعي ووسائل التخفيف إلى جانب وظائف الذكاء الاصطناعي. 

الخبراء الفنيين الخاصين بتكنولوجيا المعلومات/ التكنولوجيات التشغيلية. يتطلب دمج الأنظمة الذكية في بيئات البيئات التشغيلية مزيدًا من الإدماج مع خبراء مثل هؤلاء للحصول على رؤى حاسمة ومؤثرة حول بيئة البيئات التشغيلية وتحديد المخاطر المحتملة والتحديات المرتبطة بالاندماج ذكي الاصطناعي. 

فرق الأمن السيبراني. إن الاعترياق مع فرق الأمان بالأمن السيبراني ضروري لتطوير السياسات والإجراءات التي تحمي البيانات التشغيلية الحساسة المستخدمة من قبل أنماج النموذج الذكي الاصطناعي. توفر فرق الأمان السيبراني الوسائل والإرشادات الخاصة للتخفيف من أية مشكلات، مثل التهديدات المحتملة للبيانات. 

لا تفكر حتى في السماح لمهندس غير معتمد بتولي مهمة إدارة محطة نووية. فلا يمكنك في المقابل السماح لنموذج غير معتمد بتشغيلها أيضًا. 

  • سجل المخاطر الخاص بالذكاء الاصطناعي: تعامل مع مكونات الذكاء الاصطناعي كأصول متميزة تمتلك ملفات مخاطرها الخاصة. 

  • الاختبار المستمر: خلافاً للتروس الفيزيائية التي تُتلف بشكل مرئي، فإن نموذج الذكاء الاصطناعي يتدهور بصمت. توصي الإرشادات بـ التقييم المستمر، واختبار النموذج ضد "الحالات القصوى" (السيناريوهات النادرة والمتطرفة) لضمان عدم فشله بشكل كارثي عند وقوع الأخطاء. 

  • رسم الخرائط الامتثالي: لا تعيد اختراع العجلة. ارسم حوكمة الذكاء الاصطناعي الخاصة بك ضمن الأطر الحالية مثل إطار عمل NIST CSF أو IEC 62443. 

القاعدة الذهبية: الإنسان في الحلقة وآليات الفشل الآمنة 

هذه هي القسم الأكثر أهمية للسلامة. الوكالات المشتركة لا تساوم: لا يجب أن يكون للذكاء الاصطناعي القول الفصل في الإجراءات الحيوية للسلامة. 

  • "مفتاح القتل": إذا فشل الذكاء الاصطناعي، يجب أن يعود النظام إلى حالة آمنة ومعروفة (مثل توقف ميكانيكي موصول بأسلاك). يجب أن يكون هذا "السلامة الآمنة" مستقلاً عن الذكاء الاصطناعي. 

  • الرقابة البشرية: للقرارات ذات العواقب العالية، يجب أن يكون الإنسان "في الحلقة". يستشار الذكاء الاصطناعي؛ ويتحرك المشغل. 

  • الشفافية في العمليات: عندما يولد الذكاء الاصطناعي تنبيهاً، يجب أن يكون قابلاً للتفسير. يحتاج المشغل إلى معرفة سبب اعتقاد الذكاء الاصطناعي بحدوث زيادة في الضغط وليس فقط أنه يعتقد ذلك. 

الكلمة الأخيرة

لا تنطبق حقبة التحرك السريع وكسر الأشياء بالتأكيد عند إدارة شبكة الكهرباء أو إمدادات المياه. لا يمكن لأحد أن يفكر حتى في ذلك 

تخلق إرشادات CISA المشتركة بشكل فعال بنية معمارية مزدوجة الأبعاد: استخدم الذكاء الاصطناعي للتحليل والتحسين والتنبؤ في السحابة أو الحافة، ولكن احتفظ بالضوابط المادية بسيطة وتعمل بشكل ميكانيكي وتحت إشراف الإنسان. 

إذن، ما يجب أن يكون تكليفك لعام 2026: ابتكار من خلال الذكاء الاصطناعي، ولكن اجعلها مرتبطة ومدرجة في أساسيات السلامة الميكانيكية التي حافظت على إضاءة نيراتنا لقرن. 

تخطط لاستخدام الذكاء الاصطناعي لتكنولوجيا التشغيل وتحتاج إلى إرشادات؟ تحدث إلينا. 



احصل على تحديثات أسبوعية

الموارد والأخبار

قد تود أيضًا

BG image

ابدأ الآن

عزز موقفك الأمني لنظام CPS

تواصل مع خبرائنا في أمن CPS للحصول على استشارة مجانية.

BG image

ابدأ الآن

عزز موقفك الأمني لنظام CPS

تواصل مع خبرائنا في أمن CPS للحصول على استشارة مجانية.

BG image

ابدأ الآن

عزز موقفك الأمني لنظام CPS

تواصل مع خبرائنا في أمن CPS للحصول على استشارة مجانية.