أسوأ من الانقراض.. المصير الكئيب الذي قد ينتظر البشر
خبراء يحذرون: حكومة مهيمنة على العالم بأَسره وعالم مقيد بالأصفاد، كيف؟
كيف كانت الحكومات الشمولية في الماضي ستبدو إذا لم تنهزم قط؟ كان النازيون سيمتلكون الآن تقنيات القرن العشرين، وسيتطلب الأمر حرباً عالمية لإيقافهم.
عندما نفكر في المخاطر الوجودية، غالباً ما تتبادر إلى الذهن أحداث مثل الحرب النووية أو اصطدام الكويكبات بالأرض. لكن هناك تهديداً مستقبلياً أقل شهرة، وعلى الرغم من أنه لا يتضمن انقراض جنسنا البشري، فإنه قد يكون بالسوء نفسه.
يُطلق على هذا الاحتمال سيناريو “العالم المقيد بالأصفاد”، حيث تستخدم حكومة شمولية عالمية تقنية جديدة لحبس غالبية العالم في معاناة دائمة.
هل هذا الأمر محتمل؟
بدأ الباحثون والفلاسفة في تصور كيفية حدوثه، والأهم من ذلك، ما الذي يمكننا فعله لتجنب الأمر؟
المخاطر الوجودية لمصير البشرية
تعتبر المخاطر الوجودية (مخاطر-x) كارثية، لأنها تجمع البشرية في مصير واحد، مثل الانهيار الدائم للحضارة أو انقراض الجنس البشري.
قد يسبب هذه الكوارث أسبابٌ طبيعية، مثل اصطدام كويكب أو بركان هائل، أو أن تكون من صنع الإنسان مثل الحرب النووية أو تغير المناخ.
ويمثل السماح بحدوث أحد هذه الاحتمالات “نهايةً خسيسة للقصة الإنسانية”، ويخذل مئات الأجيال التي سبقتنا كما يقول مدير المشروع الأكاديمي في مركز دراسة المخاطر الوجودية بجامعة كامبريدج، هايدن بيلفيلد، لشبكة BBC.
كوارث من صنع الإنسان
ويعتقد الزميل الأول الباحث بمعهد مستقبل الإنسانية (FHI) بجامعة أوكسفورد، توبي أورد، أن احتمالات حدوث كارثة وجوديةٍ هذا القرن لأسباب طبيعيةٍ أقل من واحد في الألفين، لأن البشر قد عاشوا لمدة ألفي قرن دون حدوث واحدة.
لكن عندما يضيف احتمالية وقوع كوارث من صنع الإنسان، تزداد الفرص إلى واحد من كل ستة.
ويشير أورد إلى هذا القرن على أنه “الهاوية”، لأن خطر مصير البشرية لم يكن بهذه الدرجة من قبل.
وقد وسع باحثون بمركز المخاطر طويلة الأجل، وهو معهد أبحاث غير هادف للربح في لندن، من نطاق مخاطر x مع احتمالاتٍ أكثر رعباً للمعاناة.
وتُعرَّف هذه المخاطر (سُميت المخاطر-s) على أنها “معاناة على نطاق هائل، يتجاوز إلى حد كبيرٍ كل المعاناة التي كانت موجودة على الأرض حتى الآن”.
في هذه السيناريوهات، تستمر الحياة لمليارات الأشخاص، ولكن بجودة منخفضة للغاية، مع توقعات قاتمة جداً لدرجة أن الموت سيكون أفضل.
باختصار: المستقبل ذو القيمة السلبية أسوأ من المستقبل الذي لا قيمة له على الإطلاق.
حكومة مهيمنة على العالم بأَسره
وهنا يأتي سيناريو “العالم المقيد بالأصفاد”.
فإذا تمكنت فجأةً مجموعة أو حكومة خبيثة من اكتساب قوة مهيمنة على العالم من خلال التكنولوجيا، ولم يكن هناك ما يقف في طريقها، فقد يؤدي ذلك إلى فترة طويلة من المعاناة الشديدة والقهر.
وقد حذَّر تقرير أصدره مشروع الأولويات العالمية عام 2017 حول المخاطر الوجودية، بالاشتراك مع معهد مستقبل الإنسانية ووزارة الشؤون الخارجية الفنلندية، من أن “المستقبل الطويل في ظل دولة شمولية عالمية وحشية بشكل خاص يمكن أن يكون أسوأ من الانقراض الكامل”.
الحكم المفرد بقوة الذكاء الاصطناعي
رغم أن الشمولية العالمية ما تزال موضوعاً تحت الدراسة، يحول الباحثون في مجال الخطر الوجودي انتباههم بشكل متزايد إلى السبب الأكثر ترجيحاً: الذكاء الاصطناعي.
وفي مقالته بعنوان “singleton hypothesis” أو “فرضية الحكم المفرد”، يوضح مدير معهد مستقبل الإنسانية، نيك بوستروم، كيف يمكن لحكومة عالميةٍ التشكل باستخدام الذكاء الاصطناعي أو التقنيات القوية الأخرى، ولماذا قد يكون من المستحيل الإطاحة بها.
وكتب أن عالماً به “جهة واحدة لصنع القرار على أعلى مستوى” يُمكن حدوثه إذا حصلت تلك الجهة “على قيادة حاسمة من خلال تقدم تقني هائل في الذكاء الاصطناعي أو تقنية النانو الجزيئية”.
وبمجرد توليها المسؤولية، ستُسيطر على التقدم في التكنولوجيا التي تمنع التحديات الداخلية، مثل المراقبة أو الأسلحة المستقلة.
ومع هذا الاحتكار، ستبقى مستقرة دائماً.
وإذا كان الحكم المفرد شمولياً، فسيكون مصير البشرية قاتماً. فحتى في البلدان ذات الأنظمة الأكثر صرامة، فإن الأخبار تتسرب من وإلى البلدان الأخرى ويمكن للناس الهرب منها.
لكن الحكم الشمولي العالمي من شأنه القضاء حتى على بذور الأمل الصغيرة هذه.
وسيصبح الأمر أسوأ من الانقراض، “أي إننا لن نشعر مطلقاً بالحرية، أو الخصوصية، أو الأمل في الهرب، ولا حق لنا في التحكم في حياتنا على الإطلاق”، على حد قول تاكر ديفي، الكاتب بمعهد مستقبل الحياة في ماساتشوستس، والذي يركز على أبحاث المخاطر الوجودية.
ويتابع: “في الأنظمة الشمولية بالماضي، [كان هناك] كثير من الارتياب والمعاناة النفسية، لأنه ليست لديك أي فكرة عما إذا كنت ستقتل بسبب قول الشيء الخطأ. وتخيل الآن أنه لا يوجد حتى استجواب، فكل شيء تقوله يجري الإبلاغ عنه وتحليله”.
بينما قال أورد في مقابلة حديثة: “ربما لم نمتلك التقنيات اللازمة للقيام بذلك حتى الآن، ولكن يبدو أن أنواع التقنيات التي نطورها تجعل ذلك أسهل وأسهل. ويبدو من المعقول إمكانية حدوثه في وقت ما خلال اﻷعوام المئة المقبلة”.
الذكاء الاصطناعي والسلطوية
رغم أن الحياة في ظل حكومة شمولية عالمية ما تزال تُعتبر من السيناريوهات المستبعدة والمستقبلية، فإن الذكاء الاصطناعي يمكّن الاستبداد بالفعل في بعض البلدان ويعزز البنية التحتية التي يمكن أن يستولي عليها طاغية انتهازي في بلدان أخرى.
وتقول الزميلة المساعدة في مركز الأمن الأمريكي الجديد، إلسا كانيا، وهو مركز غير هادف للربح ويعمل على تطويل سياسات الأمن القومي والدفاع: “لقد رأينا نوعاً من التحسب للتحول من الرؤى المثالية لما قد تجلبه التكنولوجيا إلى حقائق أكثر واقعية، وهي من بعض النواحي بائسة للغاية بالفعل”.
التكنولوجيا تراقب الجميع
في الماضي، تطلبت المراقبة مئات الآلاف من الأشخاص -كان واحداً من كل 100 مواطن في ألمانيا الشرقية مخبراً- ولكن الآن يمكن تحقيق ذلك عن طريق التكنولوجيا.
في الولايات المتحدة، جمعت وكالة الأمن القومي (NSA) مئات الملايين من سجلات المكالمات والرسائل النصية الأمريكية قبل أن توقف المراقبة الداخلية في عام 2019، وهناك ما يقدر بأربعة إلى ستة ملايين كاميرا CCTV في جميع أنحاء المملكة المتحدة.
وبينما توجد 18 مدينة من بين أكثر 20 مدينة خاضعة للمراقبة في العالم بالصين، تحل العاصمة البريطانية مثلاً في المرتبة الثالثة. والفارق بين هذه البلدان لا يكمن في التكنولوجيا التي توظفها بقدر ما يكمن في كيفية استخدامها.
ماذا لو توسع تعريف ما هو غير قانوني في الدول الغربية التي تضمن حرية التعبير لتشمل انتقاد الحكومة أو ممارسة شعائر ديانات معينة؟
البنية التحتية موجودة بالفعل لدعم هذا، والذكاء الاصطناعي- الذي بدأت وكالة الأمن القومي بالفعل تجربته– سيُمكّن الوكالات من البحث في بيانات المواطنين بشكل أسرع من أي وقت مضى.
وإضافة إلى تعزيز المراقبة، يدعم الذكاء الاصطناعي أيضاً نمو المعلومات المضللة عبر الإنترنت، وهي أداة أخرى للسلطوية.
فتقنية مثل التزييف العميق- التي يدعمها الذكاء الاصطناعي- يمكنها نشر رسائل سياسية ملفقة، والاستهداف الدقيق عن طريق الخوارزميات على وسائل التواصل الاجتماعي، يجعلان من الدعاية أكثر إقناعاً.
وهذا يقوض الأمن المعرفي- أي القدرة على تحديد ما هو حقيقي والتصرف بناءً عليه- الذي تعتمد عليه الديمقراطيات.
ويقول بيلفيلد: “على مدى السنوات القليلة الماضية، شهدنا ظهور تقنية فقاعة المرشح وتوجيه الناس بواسطة عدة خوارزميات إلى تصديق نظريات المؤامرة المختلفة، أو حتى لو لم تكن نظريات مؤامرة، والاقتناع بأجزاء فقط من الحقيقة. يمكنك أن تتخيل الأمور تزداد سوءاً، خاصة مع تقنية التزييف العميق وأشياء من هذا القبيل، حتى يصبح من الصعب علينا كمجتمعٍ تقرير ما إذا كانت هذه هي حقائق الأمور، وما يتعين علينا فعله حيال ذلك، قبل أن نتخذ إجراءات جماعية”.
تدابير وقائية ومراقبة الأدوات
يتنبأ تقرير “الاستخدام الضار للذكاء الاصطناعي The Malicious Use of Artificial Intelligence”، الذي كتبه بيلفيلد و25 مؤلفاً آخرين من 14 مؤسسة، بأن مثل هذه التوجهات سوف توسع التهديدات الحالية على الأمن السياسي، وتقدم تهديدات جديدة في السنوات المقبلة.
لكن بيلفيلد يقول إنَّ عمله يجعله متفائلاً بفضل التوجهات الإيجابية، مثل المزيد من المناقشات الديمقراطية حول الذكاء الاصطناعي والإجراءات التي يتخذها صانعو السياسات؛ على سبيل المثال، يفكر الاتحاد الأوروبي في إيقاف تقنية التعرف على الوجه مؤقتاً في الأماكن العامة).
ويوافقه ديفي الرأي قائلاً: “نحن بحاجة لأن نُقرّر الآن ما هي الاستخدامات المقبولة وغير المقبولة للذكاء الاصطناعي. ونحن بحاجة إلى توخي الحذر بشأن السماح لها بالتحكم في كثير من بنيتنا التحتية. إذا كنا نسلّح الشرطة بتقنية التعرف على الوجوه وتقوم الحكومة الفيدرالية بجمع كل بياناتنا، فهذه بداية سيئة”.
وإذا كنت لا تزال متشككاً في قدرة الذكاء الاصطناعي على توفير مثل هذه القوة، ففكِّر في العالم قبل الأسلحة النووية. قبل ثلاث سنوات من أول تفاعل نووي متسلسل، حتى العلماء الذين حاولوا تحقيق ذلك اعتقدوا أنه غير مرجح.
وكانت البشرية أيضاً غير مستعدة لثورة الاكتشافات في المجال النووي، وترنحت على شفا “التدمير المؤكد المتبادل”، قبل أن تُنقذنا معاهدات واتفاقيات منع الانتشار العالمي للأسلحة الفتاكة من وقوع كارثة وجودية.
ويمكن فعل الشيء نفسه مع الذكاء الاصطناعي، عبر دمج دروس التاريخ مع البصيرة اللازمة للإعداد لهذه التكنولوجيا القوية.
قد لا يكون العالم قادراً على إيقاف الأنظمة الشمولية مثل النازيين من الصعود مرة أخرى في المستقبل، لكن يمكن تجنب منحهم الأدوات لتوسيع سلطتهم إلى أجل غير مسمى.