ضرب الكتب: كلف السوفييت ذات مرة الذكاء الاصطناعي بتدميرنا المؤكد المتبادل

ضرب الكتب: كلف السوفييت ذات مرة الذكاء الاصطناعي بتدميرنا المؤكد المتبادل
كان من الممكن أن يطلق نظام Perimeter هجومًا مضادًا لإنهاء الحضارة في أعقاب الإطلاق النووي للولايات المتحدة.
بالكاد مرت شهر واحد على غزوها المتعثر بالفعل لأوكرانيا وروسيا ، وهو ويهدد
الصراع الإقليمي بشكل كبير إلى حرب عالمية شاملة. لكن الروس ليسوا غرباء عن سياسة حافة الهاوية النووية. في المقتطف أدناه من أحدث كتب بن بوكانان وأندرو إمبري ، يمكننا أن نرى مدى قرب البشرية من محرقة ذرية في عام 1983 ولماذا الاعتماد المتزايد على الأتمتة - على جانبي الستار الحديدي - أدى فقط إلى زيادة احتمالية حدوث إطلاق عرضي.
يلقي نظرة على الأدوار المتزايدة بسرعة لأنظمة التعلم الآلي الآلية في الدفاع الوطني وكيف تعمل تقنيات الذكاء الاصطناعي المنتشرة في كل مكان (كما تم فحصها من خلال العدسات الموضوعية "للبيانات والخوارزميات وقوة الحوسبة") على تغيير كيفية شن الدول للحرب على الصعيدين المحلي والخارجي.
مقتبس من كتاب 87
بقلم أندرو إمبري وبن بوكانان. نشرته مطبعة معهد ماساتشوستس للتكنولوجيا. حقوق النشر
86لأندرو إمبري وبن بوكانان. كل الحقوق محفوظة.
اليد الميتة
مع وصول التوترات بين الولايات المتحدة والاتحاد السوفيتي إلى ذروتها في خريف عام 1993 ، بدأت الحرب النووية. على الأقل ، هذا ما قالته أجهزة الإنذار في المخبأ في موسكو حيث كان اللفتنانت كولونيل ستانيسلاف بيتروف في الخدمة.
داخل القبو ، انطلقت صفارات الإنذار وأومضت شاشة بكلمة "إطلاق". كان صاروخ في الداخل. ولم يرد بيتروف على الفور ، وهو غير متأكد مما إذا كان ذلك خطأ. ثم أبلغ النظام عن صاروخين آخرين ، ثم صاروخين آخرين بعد ذلك. قالت الشاشة الآن "ضربة صاروخية". أبلغ الكمبيوتر بأعلى مستوى من الثقة أن هجومًا نوويًا جارياً.
لقد أدت التكنولوجيا دورها ، وأصبح كل شيء الآن في يد بتروف. إن الإبلاغ عن مثل هذا الهجوم يعني بداية الحرب النووية ، حيث سيطلق الاتحاد السوفيتي بالتأكيد صواريخه الخاصة ردًا على ذلك. إن عدم الإبلاغ عن مثل هذا الهجوم كان بمثابة إعاقة للرد السوفيتي ، والتخلي عن الدقائق القليلة الثمينة التي كان يتعين على قيادة البلاد الرد عليها قبل أن تنفجر سحب الفطر الذري في جميع أنحاء البلاد ؛ قال بتروف لاحقًا: "كل ثانية من التسويف تضيع وقتًا ثمينًا".
وروى "لمدة 15 ثانية ، كنا في حالة صدمة". شعر وكأنه كان جالسًا على مقلاة ساخنة. بعد جمع أكبر قدر ممكن من المعلومات بسرعة قدر استطاعته من المحطات الأخرى ، قدر أن هناك فرصة بنسبة 50 في المائة لوقوع هجوم. أملى البروتوكول العسكري السوفيتي أن يبني قراره على قراءات الكمبيوتر أمامه ، تلك التي قالت إن الهجوم لا يمكن إنكاره. بعد مداولات متأنية ، اتصل بتروف بالضابط المناوب لإعلان الخبر: كان نظام الإنذار المبكر معطلاً. قال إنه لم يكن هناك هجوم. لقد كانت لفة من النرد الذري.
بعد ثلاث وعشرين دقيقة من الإنذارات - الوقت الذي سيستغرقه صاروخ لضرب موسكو - كان يعلم أنه على حق وأن أجهزة الكمبيوتر كانت خاطئة. قال في وقت لاحق: "لقد كان مثل هذا الارتياح". كشفت تقارير الإجراءات اللاحقة أن وهج الشمس على سحابة عابرة قد أربك نظام الإنذار عبر الأقمار الصناعية. بفضل قرارات بتروف بتجاهل الآلة وعصيان البروتوكول ، عاشت البشرية يومًا آخر.
لقد تطلبت تصرفات بتروف حكمًا وشجاعة غير عادية ، ولم يكن من اتخذ القرارات في تلك الليلة إلا من خلال حظه المطلق. يعتقد بتروف أن معظم زملائه كانوا سيبدأون الحرب. كان الوحيد من بين الضباط في مركز العمل هذا الذي لديه تعليم مدني وليس عسكري وكان مستعدًا لإظهار المزيد من الاستقلال. كان جميع زملائي جنود محترفين. لقد تم تعليمهم إعطاء الأوامر وطاعتها ". لقد أحدث الإنسان في الحلقة - هذا الإنسان بالذات - كل الفرق.
تكشف قصة بيتروف عن ثلاثة محاور: الحاجة المتصورة للسرعة في القيادة والسيطرة النووية لكسب الوقت لصناع القرار ؛ جاذبية الأتمتة كوسيلة لتحقيق هذه السرعة ؛ والميل الخطير لتلك الأنظمة الآلية إلى الفشل. كانت هذه الموضوعات الثلاثة في صميم إدارة الخوف من هجوم نووي لعقود من الزمن وتشكل مخاطر جديدة اليوم حيث أصبحت أنظمة القيادة والسيطرة والاتصالات النووية وغير النووية متشابكة مع بعضها البعض.
ربما لا شيء يُظهر الحاجة المتصورة للسرعة وجاذبية الأتمتة بقدر حقيقة أنه في غضون عامين من تصرفات بتروف ، نشر السوفييت نظامًا جديدًا لزيادة دور الآلات في سياسة حافة الهاوية النووية. كانت تُعرف بشكل صحيح باسم Perimeter ، لكن معظم الناس أطلقوا عليها اسم اليد الميتة ، وهي علامة على تقلص دور النظام للبشر. كما قال كولونيل سوفيتي سابق ومحارب سابق في القوات الصاروخية الإستراتيجية ، "إن نظام المحيط جميل جدًا جدًا. تم نقل المسؤولية الفريدة من كبار السياسيين والجيش ". أراد السوفييت أن يخفف النظام جزئياً مخاوفهم من هجوم نووي من خلال ضمان أنه حتى لو نجحت ضربة مفاجئة في قطع رأس قيادة البلاد ، فإن اليد الميتة ستضمن عدم إفلاتها من العقاب.
كانت الفكرة بسيطة ، وإن كانت مروعة: في أزمة ما ، كانت اليد الميتة تراقب البيئة بحثًا عن علامات على وقوع هجوم نووي ، مثل القرقرة الزلزالية والانفجارات الإشعاعية. مبرمجًا بسلسلة من أوامر if-then ، سيعمل النظام من خلال قائمة المؤشرات ، ويبحث عن دليل على نهاية العالم. إذا أشارت اللافتات إلى نعم ، فسيختبر النظام قنوات الاتصال مع هيئة الأركان العامة السوفيتية. إذا كانت هذه الروابط نشطة ، فسيظل النظام خاملاً. إذا لم يتلق النظام أي كلمة من هيئة الأركان العامة ، فسوف يتحايل على الإجراءات العادية للأمر بشن هجوم. بعد ذلك ، سيقع قرار الإطلاق في يد ضابط مخبأ متواضع ، شخص أقل بكثير من رتبة قائد كبير مثل بتروف ، والذي سيجد نفسه مع ذلك مسؤولاً عن تقرير ما إذا كان يوم القيامة.
انجذبت الولايات المتحدة أيضًا إلى الأنظمة الآلية. منذ الخمسينيات من القرن الماضي ، احتفظت حكومتها بشبكة من أجهزة الكمبيوتر لدمج تدفقات البيانات الواردة من مواقع الرادار. هذه الشبكة الواسعة ، التي تسمى بيئة الأرض شبه الأوتوماتيكية ، أو SAGE ، لم تكن آلية مثل اليد الميتة في شن ضربات انتقامية ، لكن إنشائها كان متجذرًا في خوف مماثل. صمم مخططو الدفاع نظام SAGE لجمع معلومات الرادار حول هجوم جوي سوفيتي محتمل ونقل هذه المعلومات إلى قيادة الدفاع الجوي في أمريكا الشمالية ، والتي ستعترض الطائرات الغازية. كانت تكلفة SAGE أكثر من ضعف تكلفة مشروع مانهاتن ، أو ما يقرب من 100 مليار دولار في عام 2022. تضم كل منشأة من منشآت SAGE العشرين حاسبين بوزن 250 طنًا ، تبلغ مساحة كل منهما 7500 قدم مربع وكانت من بين أكثر الأجهزة تقدمًا في ذلك العصر.
إذا كانت الحرب النووية مثل لعبة الدجاج - حيث تتجرأ دولتان على الابتعاد ، مثل سائقين يتجهان نحو تصادم وجهاً لوجه - فإن الأتمتة تقدم احتمالية وجود استراتيجية خطيرة ولكنها فعالة. كما وصف المنظر النووي هيرمان كان:
قد يدخل اللاعب "الماهر" السيارة وهو في حالة سُكر ، ويرمي زجاجات الويسكي من النافذة ليوضح للجميع كم هو مخمور. يرتدي نظارات داكنة جدًا بحيث يكون واضحًا أنه لا يرى الكثير ، إن وجد. بمجرد وصول السيارة إلى السرعة العالية ، يأخذ عجلة القيادة ويلقيها من النافذة. إذا كان خصمه يراقب ، فقد فاز. إذا كان خصمه لا يشاهد فلديه مشكلة. وبالمثل ، إذا جرب كلا اللاعبين هذه الإستراتيجية.
إن أتمتة الانتقام النووي هو لعب الدجاج بدون مكابح أو عجلة قيادة. إنه يخبر العالم أنه لن يمر أي هجوم نووي دون عقاب ، لكنه يزيد بشكل كبير من خطر وقوع حوادث كارثية.
ساعدت الأتمتة في تمكين عالم التدمير المؤكد المتبادل الخطير والذي يبدو متوقعًا. لم تكن الولايات المتحدة ولا الاتحاد السوفييتي قادرين على توجيه ضربة أولى لنزع سلاح الأخرى ؛ كان من المستحيل على أحد الجانبين إطلاق أسلحته النووية دون تنبيه الجانب الآخر وإتاحة بعض الوقت على الأقل للرد. حتى لو كانت الضربة المفاجئة ممكنة ، كان من غير العملي تجميع ترسانة كبيرة بما يكفي من الأسلحة النووية لنزع سلاح الخصم بالكامل من خلال إطلاق رؤوس حربية متعددة على كل صوامع وغواصة وقاذفة للعدو قادرة على شن هجوم مضاد. أصعب ما في الأمر هو معرفة مكان إطلاق النار. الغواصات في المحيط ، وأنظمة الإطلاق الأرضية المتنقلة على الأرض ، والدوريات الجوية القتالية على مدار الساعة في السماء جعلت احتمال تنفيذ مثل هذه الضربة الأولى بنجاح غير واقعي على الإطلاق. ساعدت القيادة والتحكم الآلي في ضمان تلقي هذه الوحدات أوامر بالرد. كان الانتقام أمرًا لا مفر منه ، وقد جعل ذلك الاستقرار الهش ممكنًا.
تهدد التكنولوجيا الحديثة بإلغاء التدمير المؤكد المتبادل. عندما يقترب صاروخ متقدم يسمى مركبة انزلاقية تفوق سرعة الصوت من الفضاء ، على سبيل المثال ، فإنه ينفصل عن صواريخه المعززة ويتسارع نحو هدفه بسرعة تبلغ خمسة أضعاف سرعة الصوت. على عكس الصاروخ الباليستي التقليدي ، يمكن للمركبة تغيير ملف طيرانها بشكل جذري على مسافات طويلة ، متجنبة الدفاعات الصاروخية. بالإضافة إلى ذلك ، فإن نهج الارتفاع المنخفض يجعل أجهزة الاستشعار الأرضية غير فعالة ، مما يزيد من ضغط مقدار الوقت اللازم لاتخاذ القرار. يريد بعض المخططين العسكريين استخدام التعلم الآلي لتحسين الملاحة والقدرة على البقاء لهذه الصواريخ ، مما يجعل أي دفاع مستقبلي ضدها أكثر خطورة.
قد تؤدي أنواع أخرى من الذكاء الاصطناعي إلى قلب الاستقرار النووي رأساً على عقب من خلال توجيه الضربة الأولى التي تحبط الانتقام. يخشى المخططون العسكريون من أن التعلم الآلي وتقنيات جمع البيانات ذات الصلة يمكن أن تجد قوتها النووية المخفية بسهولة أكبر. على سبيل المثال ، يمكن للتحليل الأفضل القائم على التعلم الآلي للصور العلوية أن يكتشف وحدات الصواريخ المتنقلة ؛ يقال إن الولايات المتحدة طورت برنامجًا شديد السرية لاستخدام الذكاء الاصطناعي لتتبع قاذفات كوريا الشمالية. وبالمثل ، قد تكتشف الطائرات بدون طيار ذاتية التحكم الموجودة تحت سطح البحر الغواصات النووية المعادية ، مما يمكنها من تحييدها قبل أن تتمكن من الرد على أي هجوم. قد تتلاعب العمليات السيبرانية الأكثر تقدمًا بأنظمة القيادة والسيطرة النووية أو تخدع آليات الإنذار المبكر ، مما يتسبب في حدوث ارتباك في شبكات العدو ويزيد من إعاقة الاستجابة.
بالنسبة للبعض ، تمامًا مثل استراتيجيي الحرب الباردة الذين نشروا الأنظمة الخبيرة في SAGE و Dead Hand ، فإن الإجابة على هذه المخاوف الجديدة هي المزيد من الأتمتة. قال قائد القوات الصاروخية الاستراتيجية الروسية إنه تم تحسين اليد الميتة الأصلية ولا تزال تعمل ، رغم أنه لم يقدم تفاصيل فنية. في الولايات المتحدة ، تدعو بعض المقترحات إلى تطوير نظام "اليد الميتة" الجديد لضمان مواجهة أي ضربة أولية بالانتقام النووي ، بهدف ردع مثل هذه الضربة. إنه احتمال يحظى بجاذبية إستراتيجية لبعض المحاربين ولكنه يثير قلقًا شديدًا لكاساندراس ، الذي يثير الهشاشة الحالية في عملية صنع قرارات التعلم الآلي ، وللمبشرين ، الذين لا يريدون اختلاط الذكاء الاصطناعي بسياسة حافة الهاوية النووية.
في حين أن مخاوف الإنجيليين أكثر تجريدية ، فإن لدى الكاساندرا أسبابًا ملموسة للقلق. وترتكز شكوكهم على قصص مثل قصة بيتروف ، حيث كانت الأنظمة مشبعة بقدر كبير جدًا من الثقة وفقط الإنسان الذي اختار عدم الامتثال للأوامر هو الذي أنقذ الموقف. كما أن الإخفاقات الفنية الموصوفة في الفصل 4 تغذي شكوكهم. إن المخاطر التشغيلية لنشر التعلم الآلي غير المعصوم في بيئات معقدة مثل الاستراتيجية النووية كبيرة ، ولا تنطبق دائمًا نجاحات التعلم الآلي في سياقات أخرى. فقط لأن الشبكات العصبية تتفوق في لعب Go أو إنشاء مقاطع فيديو تبدو أصلية أو حتى تحديد كيفية طي البروتينات لا يعني أنها أكثر ملاءمة من كمبيوتر حقبة الحرب الباردة بتروف لاكتشاف الضربات النووية بشكل موثوق. الثقة في الآلات في غير محله قد تكون قاتلة للحضارة ؛ إنه مثال واضح لكيفية خروج قوة النار الجديدة عن السيطرة بسرعة.
ومما يثير القلق بشكل خاص هو التحدي المتمثل في الموازنة بين السلبيات الكاذبة والإيجابيات الكاذبة - بين الفشل في التنبيه عندما يكون الهجوم جاريًا ودق ناقوس الخطر عندما لا يكون كذلك. نوعا الفشل في حالة توتر مع بعضهما البعض. يؤكد بعض المحللين أن المخططين العسكريين الأمريكيين ، الذين يعملون من مكان يتسم بالأمن النسبي ، قلقون أكثر بشأن الأخير. في المقابل ، يجادلون بأن المخططين الصينيين أكثر قلقًا بشأن حدود أنظمة الإنذار المبكر الخاصة بهم ، نظرًا لأن الصين تمتلك ترسانة نووية تفتقر إلى السرعة والكمية والدقة في الأسلحة الأمريكية. نتيجة لذلك ، يشعر قادة الحكومة الصينية بالقلق بشكل أساسي من أن يكونوا بطيئين للغاية في اكتشاف هجوم قيد التقدم. إذا قرر هؤلاء القادة استخدام الذكاء الاصطناعي لتجنب السلبيات الكاذبة ، فقد يزيدون من مخاطر الإيجابيات الكاذبة ،
بل إن المخاطر الاستراتيجية التي أحدثها الدور الجديد للذكاء الاصطناعي في الاستراتيجية النووية مقلقة أكثر. تطمس الطبيعة متعددة الأوجه للذكاء الاصطناعي الخطوط الفاصلة بين الردع التقليدي والردع النووي وتشوه الإجماع الراسخ للحفاظ على الاستقرار. على سبيل المثال ، يمكن لشبكات المعارك التي تدعم التعلم الآلي والتي يأمل المحاربون أن تدير حروبًا تقليدية أن تدير أيضًا القيادة والسيطرة النووية. في مثل هذه الحالة ، قد تهاجم دولة ما أنظمة معلومات دولة أخرى على أمل إضعاف قدرتها التقليدية وإضعاف رادعها النووي عن غير قصد ، مما يتسبب في عدم استقرار وخوف غير مقصود وخلق حوافز للضحية للرد باستخدام الأسلحة النووية. هذا التشابك بين أنظمة القيادة والتحكم التقليدية والنووية ، وكذلك شبكات الاستشعار التي تغذيها ، يزيد من مخاطر التصعيد. قد تفسر الأنظمة التي تدعم الذكاء الاصطناعي بشكل خاطئ الهجوم على البنية التحتية للقيادة والتحكم على أنه مقدمة لضربة نووية. في الواقع ، هناك بالفعل دليل على أن الأنظمة المستقلة تنظر إلى ديناميكيات التصعيد بشكل مختلف عن المشغلين البشريين
https://cr7ronaldo7.w3spaces.com/saved-from-Tryit-2022-03-29.html
ردحذف