Apparat - مجلة عن المجتمع الجديد. اقرأ على الانترنت "الذكاء الاصطناعي"

8 عام

المراجعة بواسطة getAbstract

وفقا لنيك بوستروم، عالم المستقبل في جامعة أكسفورد، يمكن للذكاء الاصطناعي أن يصبح أداة بالنسبة لنا لضمان الأمن والازدهار الاقتصادي والتنمية الفكرية، ولكن البشرية قد لا تكون قادرة على تحقيق الإمكانات الكاملة لهذه الأداة. يقدم بوستروم نقدًا خطوة بخطوة للمزالق المتأصلة في الإدراك البشري للذكاء الاصطناعي، ويشعر المرء بأن البشر ليس لديهم الموارد ولا الخيال لفهم الانتقال من عالم يهيمن عليه البشر إلى عالم مهدد أو مهدد. مستعبد بالفعل من قبل كيان ما ذو عقل خارق. يصف بوستروم ببراعة كيف يمكن أن ينشأ مثل هذا الذكاء الفائق، وكيف يمكن أن يتطور إلى "فردي" قوي للغاية، والتهديد الذي سيشكله. على سبيل المثال، يتساءل: ماذا سيحدث إذا تطور هذا الذكاء الاصطناعي إلى درجة أنه شكل حكومة عالمية واحدة لا تسترشد بالمبادئ الأخلاقية التقليدية؟ الكتاب غني بالمعلومات، وغني بالإشارات إلى مصادر مختلفة، ويشجع القارئ على التفكير في العديد من الأشياء المجهولة. يعتمد منطق المؤلف على تحليل مجموعة كاملة من السيناريوهات المستقبلية المحتملة. هذه الدراسة المتعمقة مخصصة في المقام الأول للقراء الذين لديهم اهتمام خاص بالموضوع. getAbstractيوصي به السياسيون والمستقبليون والطلاب والمستثمرون والفلاسفة وأي شخص يفكر في التكنولوجيا المتقدمة.

ومن ملخص الكتاب ستتعلم:

  • كيف تتطور التكنولوجيا المعروفة باسم “الذكاء الاصطناعي”؟
  • ماذا يقترح العلماء من أجل استخدام الذكاء الاصطناعي والسيطرة عليه؛
  • لماذا الإنسانية ليست مستعدة للتعامل مع الذكاء الاصطناعي؟

عن المؤلف

نيك بوستروم– أستاذ بجامعة أكسفورد، والمدير المؤسس لمعهد مستقبل الإنسانية.

آفاق ظهور الذكاء الفائق

في صيف عام 1956، اجتمعت مجموعة من العلماء في كلية دارتموث لدراسة آفاق التنمية البشرية. لقد كانوا مهتمين في المقام الأول بما إذا كانت الآلات قادرة على إعادة إنتاج وظائف الذكاء البشري. استمرت الأبحاث حول هذا الموضوع بنجاح متفاوت. في الثمانينيات، بدأت البرامج القائمة على القواعد، أو "الأنظمة المتخصصة"، في التطور، وبدأ يبدو أن التقنيات التي يمكن استخدامها لإنشاء الذكاء الاصطناعي كانت على وشك الازدهار. ثم توقف التقدم وجف التمويل. تلقت جهود الذكاء الاصطناعي زخما جديدا في التسعينيات مع ظهور "الخوارزميات الجينية" و"الشبكات العصبية".

أحد مقاييس قوة الذكاء الاصطناعي هو مدى جودة أجهزة الكمبيوتر المصممة خصيصًا في لعب ألعاب مثل الشطرنج والجسر وScrabble وGo وtrivia. في غضون 10 سنوات تقريبًا، سيتمكن جهاز كمبيوتر مزود بخوارزميات متقدمة من هزيمة بطل العالم في لعبة Go. بالإضافة إلى الألعاب، يتم استخدام تقنيات مماثلة في أدوات السمع وأجهزة التعرف على الوجه والكلام والملاحة والتشخيص والتخطيط والخدمات اللوجستية، وكذلك لإنشاء روبوتات صناعية تكون وظائفها...

في الآونة الأخيرة، ابتكر مؤسس شركتي Tesla Motors وSpaceX، إيلون ماسك، ذكاءً اصطناعيًا لاستدعاء شيطان سيكون من المستحيل السيطرة عليه. ويشارك ماسك شكوكه مع الفيلسوف البريطاني نيك بوستروم، الذي أوصى رجل الأعمال متابعيه على تويتر بكتابه الأخير بعنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات". في حين يتنبأ بعض علماء المستقبل بمستقبل مريح للناس نتيجة لاستبدال العمل البشري على نطاق واسع بالعمل الآلي، يرى نيك بوستروم أن الذكاء الاصطناعي يشكل تهديدًا لوجود جنسنا البشري بأكمله. تعرفت Apparat على أفكار Nick Bostrom واكتشفت كيف يمكن إنقاذ البشرية في رأيه.

نيك بوستروم
فيلسوف وأستاذ بجامعة أكسفورد

قبل عدة سنوات، أدرجته مجلة فورين بوليسي في قائمتها لأهم 100 مفكر على هذا الكوكب. يؤمن نيك بوستروم بتمكين الناس من خلال التكنولوجيا. في عام 1998، أسس رابطة ما بعد الإنسانية العالمية (التي تسمى الآن الإنسانية +) للنضال من أجل الاعتراف بما بعد الإنسانية كمجال كامل للمعرفة العلمية. اكتسب بوستروم شهرة خارج الأوساط الأكاديمية عندما وصف مفهوم انقراض الإنسان في كتاب المخاطر الكارثية العالمية. بوستروم هو مدير معهد أكسفورد لمستقبل الإنسانية. وهو الآن يحاول جذب انتباه الجمهور إلى تهديد آخر لحضارتنا - الذكاء الفائق.

سوف يصبح الذكاء الاصطناعي قريباً أكثر ذكاءً منا

بالنسبة لنيك بوستروم، لا يهم أي مجال من المعرفة سيقودنا إلى خلق الذكاء الفائق. سواء كانوا المبرمجين الذين كتبوا برنامجًا يمكنه التفكير، أو علماء الأعصاب، إعادة إنشائهعمل الدماغ البشري. الشيء الرئيسي هو أن هذا سيحدث بشكل أسرع مما نعتقد. ويتوقع معظم الخبراء الذين شملهم استطلاع بوستروم إنشاء ذكاء اصطناعي ذكي بحلول عام 2040 أو 2050.

يتفوق الذكاء الاصطناعي بالفعل على الذكاء البشري في العديد من المجالات. وهكذا، لسنوات عديدة، كانت أنواع مختلفة من الذكاء الاصطناعي تهزم أبطال بطولات الألعاب المختلفة، سواء كانت الشطرنج أو البوكر. قد لا تبدو مثل هذه الإنجازات مثيرة للإعجاب بشكل خاص، ولكن ذلك لأن مطالبنا بالمذهلين تتكيف بسرعة مع التقدم.

ونظرًا للقدرة على التعلم الذاتي، سيتحول الذكاء الاصطناعي إلى ذكاء فائق

وفقا لبوستروم، فإن الذكاء الاصطناعي سوف يشبه في البداية دماغ الطفل. ومثل الطفل، سيكون قادرًا على التعلم. سيتوقف الأشخاص عن محاولة إدخال أكبر قدر ممكن من المعلومات في البرنامج، وسيقومون بتعليمه كيفية فهم العالم من حوله. سيكون وجود الذكاء الفائق ممكنًا من خلال التحسين الذاتي المستمر.

من المهم بالنسبة لنا إنشاء ذكاء اصطناعي ذكي بما يكفي للتعلم من أخطائه. سيكون قادرًا على تحسين نفسه إلى ما لا نهاية. سيكون الإصدار الأول قادرًا على إنشاء نسخة ثانية، والتي ستكون أفضل، والثانية، كونها أكثر ذكاءً من النسخة الأصلية، ستنشئ نسخة ثالثة أكثر تقدمًا، وهكذا. في ظل ظروف معينة، يمكن تكرار عملية التحسين الذاتي هذه حتى يتم تحقيق الانفجار الفكري - اللحظة التي يقفز فيها المستوى الفكري للنظام في وقت قصير من مستوى متواضع نسبيًا إلى مستوى الذكاء الفائق.

سيكون للذكاء الفائق احتياجاته وأهدافه الخاصة

الطريقة التي يفكر بها الذكاء الاصطناعي ستكون مختلفة عن طريقتنا. لا يحاول نيك بوستروم التنبؤ بالضبط بكيفية عمل دوافع الذكاء الفائق. ولكن مهما كانت أهدافه، فإنه سيحتاج إلى الموارد لتحقيقها.

قد يكون الذكاء الاصطناعي أقل إنسانية من كائن فضائي. ليس من المستغرب أن أي كائن فضائي ذكي يمكن تحفيزه على العمل من خلال أشياء مثل الجوع أو درجة الحرارة أو الإصابة أو المرض أو تهديد الحياة أو الرغبة في إنجاب ذرية. الذكاء الاصطناعي، في الواقع، لن يكون مهتمًا بأي مما سبق. يمكن للمرء أن يتخيل وجود ذكاء اصطناعي هدفه النهائي الوحيد هو حساب جميع حبات الرمل في جزيرة بوراكاي أو العثور على التمثيل العشري للرقم π.

سيحاول الذكاء الخارق استخدام الناس ضد إرادتهم

للوصول إلى الموارد، سيحاول الذكاء الفائق العثور على وسيط. وفقاً لبوستروم، حتى بدون الاتصال بالشبكة أو القدرة على ممارسة النشاط البدني، سيظل الذكاء الفائق قادراً على تحقيق أهدافه. لأنه حتى عندما نصل إلى مرحلة النضج التكنولوجي، أي أننا نصنع كل التقنيات التي يمكن إنشاؤها، فإن نقطة ضعفنا الرئيسية ستظل هي أنفسنا.

الرجل هو النظام الأكثر غير موثوق بها. اليوم، غالبًا ما يلجأ المتسللون إلى مبادئ الهندسة الاجتماعية من أجل الوصول إلى جهاز كمبيوتر شخص آخر. وإذا تبين أن المتسلل المتلاعب يتمتع بالذكاء الفائق، فيمكننا أن نفترض أنه سيجد بسهولة شريكًا أو سيبدأ ببساطة في استخدامنا ضد إرادتنا كذراعيه وساقيه.

قد "يريد" الذكاء الفائق أن يظل هو الذكاء الوحيد

يرى بعض الفلاسفة والعلماء في الذكاء الاصطناعي مجرد أداة لتحسين نوعية حياتنا. ومنهم الفيلسوف الأمريكي جون سيرل: الذي يعتبر ظهور الوعي الذاتي في الآلات أمرا مستحيلا، لأن ذلك يتطلب وجود عمليات فيزيائية وكيميائية مماثلة لتلك التي تحدث في الدماغ البشري. ومع ذلك، يعتقد بوستروم أنه في مرحلة ما، سيتوقف الذكاء الفائق عن كونه أداة، ولكنه سيتحول إلى كائن كامل له احتياجاته الخاصة، وقد لا يكون الاهتمام بالحفاظ على الجنس البشري واحدًا منها. ولن نكون إلا عقبة في طريقه.

الإنسان نفسه هو مورد مفيد (ذرات مجمعة بشكل ملائم)، وبقاءه وازدهاره يعتمد على موارد أخرى. إن تطوير الذكاء الاصطناعي الذي يحتاج إلى هذه الموارد يمكن أن يؤدي بسهولة إلى انقراض البشرية. وبالتالي، فسوف يأتي الوقت لمجتمع متطور تكنولوجياً للغاية، بما في ذلك العديد من الهياكل المعقدة، والتي سيكون الكثير منها أكثر ذكاءً من أي شيء موجود على كوكب الأرض اليوم. وسيكون هذا وقت المعجزات الاقتصادية والتكنولوجية. ولكن لن يبقى أحد يمكنه الاستفادة منه. سوف تسود ديزني لاند على الأرض، حيث لن يكون هناك أطفال.

يجب أن تتعلم البشرية إبقاء التكنولوجيا تحت السيطرة

لا ينكر نيك بوستروم إمكانية إنشاء ذكاء اصطناعي ودود أو التحكم فيه. بعد كل شيء، يعترف الفيلسوف أننا بحاجة حقًا إلى تقنيات ذكية ستساعدنا في التعامل مع المشكلات الملحة. والسؤال الوحيد هو الحد من المخاطر، وخاصة خطر الانقراض.

فإذا كان هناك انفجار فكري يهددنا بالانقراض، فيجب علينا أن نفهم ما إذا كان بإمكاننا التحكم في عملية التفجير. واليوم، قد يكون من المنطقي أكثر تسريع الجهود الرامية إلى حل مشكلة السيطرة بدلاً من إيقاف الأبحاث في مجال الذكاء الاصطناعي مؤقتاً. لكن في الوقت الحالي، يعمل ستة أشخاص على حل مشكلة التحكم، بينما يعمل العشرات، إن لم يكن مئات الآلاف، على خلق الذكاء الاصطناعي.

علم يعني مسلح

ويشير بوستروم إلى أن البشرية ليست مستعدة بعد لمواجهة الذكاء الفائق ولن تكون مستعدة لسنوات عديدة. ولكن رغم أن القفزة الفكرية قد لا تحدث لبعض الوقت، إلا أنه يتعين علينا أن ننتبه إلى المشاكل المحتملة الآن. العديد من العلماء، في سعيهم لخلق الذكاء الفائق، ينسون المخاطر.

الشيء الأكثر منطقية بالنسبة للطفل الذي يحمل قنبلة موقوتة في يديه هو وضع القنبلة بعناية على الأرض، والخروج بسرعة من الغرفة والاتصال بشخص بالغ. ولكن ماذا لو كانت غرفتنا بأكملها مليئة بالأطفال ويمكن لكل طفل الوصول بسهولة إلى الزناد. إن فرصنا جميعًا في التخلص من لعبة خطيرة منخفضة للغاية. لا بد أن يضغط بعض الأحمق الصغير على الزر فقط ليرى ما سيحدث.

ماذا سيحدث لو تفوقت الآلات على البشر في الذكاء؟ هل سيساعدوننا أم يدمرون الجنس البشري؟ هل يمكننا أن نتجاهل مشكلة تطور الذكاء الاصطناعي اليوم ونشعر بالأمان التام؟

يحاول نيك بوستروم في كتابه فهم المشكلة التي تواجه البشرية فيما يتعلق باحتمال ظهور الذكاء الفائق، وتحليل الاستجابة لها.

خصائص الكتاب

تاريخ الكتابة: 2014
اسم: . مراحل. التهديدات. الاستراتيجيات

المجلد: 760 صفحة، 69 رسماً توضيحياً
ردمك: 978-5-00057-810-0
المترجم: سيرجي فيلين
صاحب حقوق الطبع والنشر: مان، إيفانوف وفيربر

مقدمة كتاب الذكاء الاصطناعي

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

ونحن نلاحظ اتجاها مماثلا - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضا تهديدات غير مسبوقة - في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن المادي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مشابه للعقل البشري أو متفوق عليه - ذكاء اصطناعي قادر على تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

مقدمة

هناك مادة معينة داخل جمجمتنا، والتي بفضلها يمكننا، على سبيل المثال، القراءة. تتمتع هذه المادة - الدماغ البشري - بقدرات غائبة في الثدييات الأخرى. في الواقع، يدين الناس بوضعهم المهيمن على الكوكب على وجه التحديد لهذه السمات المميزة. تتميز بعض الحيوانات بعضلات قوية وأنياب حادة، لكن لا يوجد كائن حي، باستثناء الإنسان، يتمتع بمثل هذا العقل المثالي. وبفضل ذكائنا العالي، تمكنا من إنشاء أدوات مثل اللغة والتكنولوجيا والتنظيم الاجتماعي المعقد. وبمرور الوقت، تعززت ميزتنا وتوسعت، مع تقدم كل جيل جديد، بناءً على إنجازات أسلافه، إلى الأمام.

إذا تم تطوير الذكاء الاصطناعي بشكل يتجاوز المستوى العام لتطور العقل البشري، فسيظهر ذكاء فائق القوة في العالم. وبعد ذلك سيعتمد مصير جنسنا بشكل مباشر على تصرفات هذه الأنظمة التقنية الذكية - تمامًا كما يتحدد مصير الغوريلا اليوم إلى حد كبير ليس من قبل الرئيسيات نفسها، بل من خلال النوايا البشرية.

ومع ذلك، تتمتع البشرية بميزة لا يمكن إنكارها، لأنها تخلق أنظمة تقنية ذكية. من حيث المبدأ، من الذي يمنعكم من اختراع مثل هذا الذكاء الفائق الذي سيأخذ القيم الإنسانية العالمية تحت حمايته؟ وبطبيعة الحال، لدينا أسباب وجيهة للغاية لحماية أنفسنا. من الناحية العملية، سيتعين علينا التعامل مع أصعب مسألة تتعلق بالتحكم - كيفية التحكم في خطط وأفعال الذكاء الفائق. علاوة على ذلك، سيكون الناس قادرين على استخدام فرصة واحدة. بمجرد ظهور الذكاء الاصطناعي غير الودي (AI)، سيبدأ على الفور في التدخل في جهودنا للتخلص منه أو على الأقل ضبط إعداداته. وبعد ذلك سيتم تحديد مصير البشرية.

أحاول في كتابي فهم المشكلة التي يواجهها الناس مع احتمال الذكاء الفائق، وتحليل استجاباتهم. ولعل أخطر وأخطر جدول أعمال تلقته البشرية على الإطلاق ينتظرنا. وبغض النظر عما إذا فزنا أو خسرنا، فمن الممكن أن يكون هذا التحدي هو الأخير بالنسبة لنا. أنا لا أقدم أي حجج هنا لصالح نسخة أو أخرى: هل نحن على وشك تحقيق تقدم كبير في إنشاء الذكاء الاصطناعي؟ هل من الممكن التنبؤ بدقة معينة بموعد حدوث حدث ثوري معين؟ على الأرجح - في هذا القرن. ومن غير المرجح أن يذكر أي شخص موعدًا نهائيًا أكثر تحديدًا.

الذكاء الاصطناعي. مراحل. التهديدات. الاستراتيجيات - نيك بوستروم (تنزيل)

(جزء من مقدمة الكتاب)

نيك بوستروم

الذكاء الاصطناعي. مراحل. التهديدات. الاستراتيجيات

نيك بوستروم

الذكاء الفائق

المسارات والمخاطر والاستراتيجيات


المحررون العلميون M. S. Burtsev، E. D. Kazimirova، A. B. Lavrentiev


تم النشر بإذن من وكالة ألكسندر كورجينفسكي


يتم توفير الدعم القانوني لدار النشر من قبل شركة المحاماة Vegas-Lex.


نُشر هذا الكتاب في الأصل باللغة الإنجليزية عام 2014. وتم نشر هذه الترجمة بالتنسيق مع مطبعة جامعة أكسفورد. يتحمل الناشر وحده المسؤولية عن هذه الترجمة من العمل الأصلي ولا تتحمل مطبعة جامعة أكسفورد أي مسؤولية عن أي أخطاء أو سهو أو عدم دقة أو غموض في هذه الترجمة أو عن أي خسائر ناجمة عن الاعتماد عليها.


© نيك بوستروم، 2014

© الترجمة إلى اللغة الروسية، النشر باللغة الروسية، التصميم. مان، إيفانوف وفيربر ذ م م، 2016

* * *

هذا الكتاب يكمل بشكل جيد

نظرية اللعبة

أفيناش ديكسيت وباري نالبوف


كين جينينغز


متعة ×

ستيفن ستروجاتز

مقدمة الشريك

قال إيديك: "...لدي صديق واحد". "يدعي أن الإنسان هو الحلقة الوسيطة التي تحتاجها الطبيعة لخلق تاج الخليقة: كوب من الكونياك مع شريحة من الليمون.

أركادي وبوريس ستروغاتسكي. الاثنين يبدأ يوم السبت

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

هناك اتجاه مماثل - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضًا تهديدات غير مسبوقة - نلاحظه في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن المادي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مشابه للعقل البشري أو متفوق عليه - ذكاء اصطناعي يمكنه تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

أود أن أنهي مقدمتي باقتباس من كتاب ميخائيل ويلر "الرجل في النظام":

عندما يكرر الخيال العلمي، أي الفكر البشري، المؤطر بالصور والمؤامرات، شيئًا ما لفترة طويلة وبالتفصيل - حسنًا، لا يوجد دخان بدون نار. تحتوي أفلام الحركة الهوليوودية المبتذلة حول الحروب بين البشر وحضارة الروبوتات على ذرة الحقيقة المريرة تحت قشر المشاهدة التجارية.

عندما يتم بناء برنامج غرائز قابل للتحويل في الروبوتات، وسيتم بناء إشباع هذه الغرائز كحاجة أساسية وغير مشروطة، وسيصل هذا إلى مستوى التكاثر الذاتي - إذن، يا شباب، توقفوا عن محاربة التدخين والكحول، لأنه سيكون الوقت المناسب للشرب والتدخين أمام هناء لنا جميعاً.

إيفجيني كاسبيرسكي,المدير العام لشركة كاسبرسكي لاب

قصة العصافير غير المكتملة

في أحد الأيام، في خضم التعشيش، جلست العصافير، التي سئمت من العمل الشاق لعدة أيام، لتستريح عند غروب الشمس وتتحدث عن هذا وذاك.

"نحن صغار جدًا وضعفاء للغاية." تخيل كم ستكون الحياة أسهل لو كان لدينا بومة كمساعد لنا! - زقزق عصفور حالمًا. - يمكنها بناء أعشاش لنا...

- نعم! - وافق آخر. – وأيضا نعتني بكبار السن والفراخ لدينا …

وأضاف ثالث: «وعلمنا واحفظنا من قطة الجيران».

ثم اقترح باستوس، العصفور الأكبر:

– دع الكشافة يطيرون في اتجاهات مختلفة بحثًا عن البومة التي سقطت من العش. ومع ذلك، فإن بيضة البومة، والغراب، وحتى ابن عرس الصغير ستفي بالغرض. سيكون هذا الاكتشاف أعظم نجاح لقطيعنا! مثل الوقت الذي اكتشفنا فيه مصدرًا لا ينتهي للحبوب في الفناء الخلفي لمنزلنا.

وكانت العصافير، متحمسة للغاية، تغرد بأعلى ما تستطيع.

ويبدو أن Skronfinkle ذو العين الواحدة فقط، وهو عصفور لاذع ذو مزاج صعب، شكك في استصواب هذا المشروع.

وقال باقتناع: “لقد اخترنا طريقاً كارثياً”. - ألا يجب عليك أولاً أن تدرس بجدية قضايا ترويض وتدجين البوم قبل السماح لمثل هذا المخلوق الخطير بالدخول إلى بيئتك؟

اعترض عليه باستوس قائلاً: "يبدو لي أن فن ترويض البوم ليس بالمهمة السهلة". العثور على بيضة البومة أمر صعب للغاية. لذلك دعونا نبدأ بالبحث. بمجرد أن نتمكن من تربية البومة، سنفكر في مشاكل التعليم.

- خطة شريرة! زقزق سكرونفينكل بعصبية.

لكن لم يعد أحد يستمع إليه. في اتجاه باستوس، ارتفع قطيع العصافير في الهواء وانطلق.

نيك بوستروم

الذكاء الفائق

المسارات والمخاطر والاستراتيجيات

المحررون العلميون M. S. Burtsev، E. D. Kazimirova، A. B. Lavrentiev

تم النشر بإذن من وكالة ألكسندر كورجينفسكي

يتم توفير الدعم القانوني لدار النشر من قبل شركة المحاماة Vegas-Lex.

نُشر هذا الكتاب في الأصل باللغة الإنجليزية عام 2014. وتم نشر هذه الترجمة بالتنسيق مع مطبعة جامعة أكسفورد. يتحمل الناشر وحده المسؤولية عن هذه الترجمة من العمل الأصلي ولا تتحمل مطبعة جامعة أكسفورد أي مسؤولية عن أي أخطاء أو سهو أو عدم دقة أو غموض في هذه الترجمة أو عن أي خسائر ناجمة عن الاعتماد عليها.

© نيك بوستروم، 2014

© الترجمة إلى اللغة الروسية، النشر باللغة الروسية، التصميم. مان، إيفانوف وفيربر ذ م م، 2016

هذا الكتاب يكمل بشكل جيد

أفيناش ديكسيت وباري نالبوف

كين جينينغز

ستيفن ستروجاتز

مقدمة الشريك

قال إيديك: "...لدي صديق واحد". "يدعي أن الإنسان هو الحلقة الوسيطة التي تحتاجها الطبيعة لخلق تاج الخليقة: كوب من الكونياك مع شريحة من الليمون.

أركادي وبوريس ستروغاتسكي. الاثنين يبدأ يوم السبت

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

هناك اتجاه مماثل - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضًا تهديدات غير مسبوقة - نلاحظه في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن المادي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مشابه للعقل البشري أو متفوق عليه - ذكاء اصطناعي يمكنه تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

أود أن أنهي مقدمتي باقتباس من كتاب ميخائيل ويلر "الرجل في النظام":

عندما يكرر الخيال العلمي، أي الفكر البشري، المؤطر بالصور والمؤامرات، شيئًا ما لفترة طويلة وبالتفصيل - حسنًا، لا يوجد دخان بدون نار. تحتوي أفلام الحركة الهوليوودية المبتذلة حول الحروب بين البشر وحضارة الروبوتات على ذرة الحقيقة المريرة تحت قشر المشاهدة التجارية.

عندما يتم بناء برنامج غرائز قابل للتحويل في الروبوتات، وسيتم بناء إشباع هذه الغرائز كحاجة أساسية وغير مشروطة، وسيصل هذا إلى مستوى التكاثر الذاتي - إذن، يا شباب، توقفوا عن محاربة التدخين والكحول، لأنه سيكون الوقت المناسب للشرب والتدخين أمام هناء لنا جميعاً.

إيفجيني كاسبيرسكي,

المدير العام لشركة كاسبرسكي لاب

قصة العصافير غير المكتملة

في أحد الأيام، في خضم التعشيش، جلست العصافير، التي سئمت من العمل الشاق لعدة أيام، لتستريح عند غروب الشمس وتتحدث عن هذا وذاك.

"نحن صغار جدًا وضعفاء للغاية." تخيل كم ستكون الحياة أسهل لو كان لدينا بومة كمساعد لنا! - زقزق عصفور حالمًا. - يمكنها بناء أعشاش لنا...