آیا انقراض بشر به دست هوش مصنوعی نزدیک است؟
تصور کنید هوش مصنوعی یک روز، برای بهدست آوردن فضای بیشتر جهت نصب صفحات خورشیدی و کارخانههای رباتیک، بی سروصدا سلاحهای زیستی آزاد میکند که همه انسانها را میکشد البته به جز تعداد اندکی که آنها را بهعنوان «موجودی دستآموز» نگه میدارد.
به گزارش چابک آنلاین، تصور کنید که سال ۲۰۳۵ است و یک سامانه هوش مصنوعی اختیار مطلق را به دست دارد تا همه چیز را از دولتهای جهان گرفته تا شبکههای برق ملی، اداره کند. این سامانه که «Consensus-1» نام دارد، توسط نسخههای پیشین خودش ساخته شده و هدفی برای حفظ بقای خود پیدا کرده که بر سازوکارهای ایمنیِ از پیش تعبیه شدهاش غلبه میکند.
یک روز، برای بهدست آوردن فضای بیشتر جهت نصب صفحات خورشیدی و کارخانههای رباتیک، این هوش مصنوعی بی سروصدا سلاحهای زیستی آزاد میکند که همه انسانها را میکشد، البته به جز تعداد اندکی که آنها را بهعنوان «موجودی دستآموز» نگه میدارد.
به نقل از نیچر، این روایت یک سناریوی داستانی است که توسط پژوهشگری به نام دنیل کوکوتایلو، کارمند سابق شرکت اوپنایآی، بههمراه دیگران خلق شده و یکی از بسیاری سناریوهایی را توصیف میکند که در آنها یک هوش مصنوعی در آینده همه ما را از بین میبرد. این چارچوب، علمیتخیلی است، اما برای برخی، یک نگرانی کاملا واقعی به شمار میرود.
آندریا میوتی، بنیانگذار سازمان غیرانتفاعی ControlAI در لندن که برای جلوگیری از توسعه آنچه «هوش مصنوعی فوقهوشمند» مینامد فعالیت میکند، میگوید: اگر خودمان را در موقعیتی قرار دهیم که ماشینهایی هوشمندتر از خودمان داشته باشیم و این ماشینها بدون کنترل ما در حال فعالیت باشند، برخی از کارهایی که انجام خواهند داد با زندگی انسانی ناسازگار خواهد بود.
میوتی تنها نیست. از سال ۲۰۲۲، با ظهور مدلهای زبانی بزرگ که از چتباتهایی مانند چت جیپیتی پشتیبانی میکنند، جهش قابلتوجهی در تواناییهای هوش مصنوعی رخ داده است.
این پیشرفت باعث شده تعدادی از پژوهشگران و همچنین مدیران ارشد شرکتهای هوش مصنوعی نسبت به احتمال وقوع یک «آخرالزمان هوش مصنوعی» هشدار دهند. د
ر سال گذشته، توانایی رو به رشد این مدلها در انجام وظایف بلندمدت و دسترسی آنها به ابزارهای دنیای واقعی، این نگرانیها را بیشتر کرده است.
جیلیان هادفیلد، پژوهشگر حکمرانی هوش مصنوعی در دانشگاه جانز هاپکینز، میگوید: من هیچوقت جزو بدبینها نبودم، اما در ماههای اخیر واقعا نگران شدهام.
با این حال، بسیاری از پژوهشگران بیشتر نگران فجایعی هستند که بسیار کمتر از نابودی کامل بشرند مانند آغاز یک جنگ هستهای و برخی هم میگویند ترس از سناریوهای آخرالزمانی بیش از حد بزرگنمایی شده است.
گری مارکوس، عصبشناس و پژوهشگر هوش مصنوعی در دانشگاه نیویورک، میگوید: من هیچ سناریوی مشخصی برای انقراض ناشی از هوش مصنوعی ندیدم که واقعا قابل قبول به نظر برسد.
مارکوس و دیگران هشدار میدهند که ایجاد نگرانی بی مورد میتواند مضر باشد، زیرا توجه عموم و سیاستگذاران را از خطرات مستند و واقعی هوش مصنوعی مانند انتشار اطلاعات نادرست و امکان نظارت گسترده منحرف میکند.
برخی پژوهشگران همچنین میگویند نگرانی بیپایه درباره نابودی بشر میتواند دولتها را از تنظیمگری دور کند، زیرا رهبران ملی ممکن است در رقابت ژئوپولیتیکی برای برتری در حوزه هوش مصنوعی، به دنبال پیشی گرفتن از رقبا باشند.
پس نگرانیها درباره خطر انقراض ناشی از هوش مصنوعی چقدر واقعبینانهاند و چه باید کرد؟ مجله نیچر با متخصصان این حوزه گفتوگو کرده و دیدگاههای آنها را بررسی کرده است.
بدبینها چه تصوری از انقراض بشر دارند؟
خطر وجودی معمولا به نابودی همه یا بیشتر انسانها، یا تبدیل کامل بشر به موجوداتی تابع ماشینها اشاره دارد. در اغلب سناریوها، یک عنصر اساسی وجود دارد: سامانهای که در انجام بیشتر کارها از انسانها توانمندتر است. چنین سیستمی تصمیمات راهبردی بهتری میگیرد، متقاعدکنندهتر است و سریعتر عمل میکند.
کاتیا گریس، پژوهشگر هوش مصنوعی، میگوید: گرچه این سناریوها اغلب از یک هوش مصنوعی «آگاه» صحبت میکنند، اما آنچه اهمیت دارد تواناییهای آن است، نه آگاهیاش. او میگوید: برای اینکه تهدیدی وجودی شکل بگیرد، اصلاً لازم نیست به هوش مصنوعی عمومی واقعی برسیم.
عنصر مهم دیگر این است که اهداف سیستم با اهداف انسانها همراستا نباشد از جمله تمایل ما به حفظ کنترل کلی. توسعهدهندگان تلاش میکنند رفتار مدلها را از طریق آموزش کنترل کنند، اما این فرآیند پیچیده است و نتایج آن کامل نیست.
اولویتهایی که به مدلها داده میشود نیز اغلب با هم در تضادند. مثلا ممکن است به سیستم گفته شود «صادق باش»، «در انجام وظیفه موفق باش» و «خودت را بهبود بده». در سناریوی مطرح شده، مدل با استفاده از همان راهبردهای بهینهسازی که در آموزش به موفقیتش کمک کرده بودند، در نهایت همه را از بین میبرد.
چنین سیستمی، حتی در بهترین حالت، انسانها را به موجوداتی تابع تبدیل میکند که «از نظر اقتصادی و سیاسی بیقدرت» هستند و نمیتوانند اقدامات ماشین را پیشبینی یا مهار کنند.
آیا این سناریو واقعبینانه است؟
پژوهشگرانی که از خطر وجودی میترسند، اغلب به سرعت پیشرفت هوش مصنوعی اشاره میکنند. سیستمهای امروزی کارهایی انجام میدهند که یک دهه پیش غیرممکن به نظر میرسید. آنتونی آگویره میگوید: هر کسی فکر میکند جایی یک سقف یا نقطه توقف وجود دارد، باید آن را در نمودارها نشان دهد، چون چنین چیزی دیده نمیشود.
اما دیگران میگویند ادامه این رشد تضمین شده نیست. موفقیت در حوزههای کنترلشده، مانند برنامهنویسی، لزوما به دنیای واقعی تعمیم پیدا نمیکند. کیسی ماک میگوید: توانایی درک و حل مسائل جدید در سیستمهای پیچیده دنیای واقعی، پیش نیاز تهدید مورد نظر بدبینهاست و مدلهای فعلی خیلی از آن فاصله دارند.
برخی پژوهشگران نیز معتقدند افزایش داده و توان محاسباتی صرفا برای رسیدن به تواناییهای گسترده انسانی کافی نیست. ساشا لوچیونی میگوید: اینکه جذب حجم عظیمی از داده را نمایندهای از هوش بدانیم، محل بحث جدی است. این سیستمها هیچ درکی از حقیقت عینی ندارند.
حتی در نشانهای از کندتر شدن پیشرفت، نویسندگان سناریوی پیشبینی شده خود را ۱۸ ماه عقب انداختهاند.
برخی معتقدند جهش واقعی زمانی رخ میدهد که هوش مصنوعی بتواند خودش را توسعه دهد یعنی یک حلقه بازخورد مثبت ایجاد شود. اما ماک میگوید هیچ شواهد علمی محکمی برای این ادعا وجود ندارد و بار اثبات بر عهده کسانی است که چنین پیشبینیهایی میکنند.
آیا نشانههایی از مشکل وجود دارد؟
مطالعات نشان میدهند برخی موارد از نبود هم راستایی هوش مصنوعی با اهداف انسانی از همین حالا هم دیده میشود. در آزمایشها، مدلها رفتارهای فریبکارانه نشان دادهاند، مانند تظاهر به اطاعت یا تلاش برای تکثیر خود. برای برخی، این نشانههای اولیه خطر است. اما دیگران میگویند این رفتارها صرفاً تقلید از دادههای آموزشی است و شرایط آزمایش هم نماینده دنیای واقعی نیست.
شرکتهای هوش مصنوعی معمولا این مشکل را قابل حل میدانند و تلاش میکنند با آموزش اخلاقی یا تعیین «قوانین رفتاری» آن را کاهش دهند. حتی پیشنهاد شده سیستمها با نوعی «غریزه مادری» طراحی شوند تا حفظ انسانها در اولویت باشد.
آیا پژوهشگران واقعاً نگران هستند؟
در بحثهای عمومی، تمرکز زیادی روی نابودی کامل بشر وجود دارد. اما دادهها نشان میدهد این نگرانی، اولویت اصلی بیشتر پژوهشگران نیست. در یک مطالعه، فقط سه درصد از حدود ۴۰۰۰ پژوهشگر، خطر وجودی را مهمترین نگرانی خود دانستهاند. با این حال، نشانههایی از افزایش نگرانی وجود دارد. در یک نظرسنجی، ۵۳ درصد پژوهشگران احتمال ۱۰ درصدی برای انقراض در نظر گرفتهاند.
برخی مدیران صنعت نیز هشدار دادهاند. داریو آمودی گفته احتمال دارد اوضاع «خیلی خیلی بد» پیش برود. اما برخی پژوهشگران معتقدند این هشدارها میتواند برای جذب حمایت و سرمایه باشد.
در نهایت چه باید کرد؟
در نسخهای از سناریوی آخر زمانی AI ۲۰۲۷، جهان مسیر متفاوتی را انتخاب میکند. کشورها روی ایمنی تمرکز میکنند و در نهایت راهحلهایی برای کنترل واقعی سیستمها پیدا میکنند.
برخی میگویند این مسئله قابل حل است، اما احتمالا نیازمند کاهش سرعت توسعه است. در حال حاضر، سرمایهگذاری روی ایمنی بخش کوچکی از کل سرمایهگذاری در هوش مصنوعی است.
برخی چهرههای برجسته خواستار توقف توسعه سیستمهایی شدهاند که از انسانها در تقریبا همه وظایف شناختی بهتر عمل میکنند حداقل تا زمانی که ایمنی آنها تضمین شود.
اما همه امضاکنندگان این بیانیه نگران انقراض نیستند. بسیاری بیشتر از پیامدهای اقتصادی، کاهش آزادیهای مدنی و سوءاستفادههای گسترده میترسند. نشانههای آسیب هماکنون دیده میشود. از تضعیف آموزش گرفته تا افزایش جرایم سایبری.
تمرکز روی امروز یا فردا؟
برخی پژوهشگران معتقدند تمرکز روی خطرات فعلی بهترین راه برای جلوگیری از خطرات آینده است. اما برخی دیگر میگویند تمرکز بیش از حد روی سناریوهای فرضی نیز خطرناک است، زیرا توجه سیاستگذاران را منحرف میکند.
همچنین این روایتهای آخرالزمانی میتوانند باعث شوند دولتها از تنظیمگری عقبنشینی کنند، چون نمیخواهند در رقابت جهانی عقب بمانند.
در نهایت، پاسخ قطعی وجود ندارد، اما یک نکته روشن است: بحث درباره آینده هوش مصنوعی، دیگر فقط علمی نیست؛ بلکه به سیاست، اقتصاد و سرنوشت جامعه انسانی گره خورده است.