پایپر نگران خطرات فاجعه بار جهانی است و روزنامه نگاری را راهی برای عمومیت بخشیدن به این خطرات و پیشبرد علت رسیدگی به آن میداند. به طور خاص پایپر درباره این امکان بحث کرده که جامعه در پرتگاهی تاریخی زندگی میکند جایی که باید اقدامات فوری برای اجتناب از خطرات فاجعه بار جهانی انجام شود و این که آن خطرات چه پیامدهایی برای نوع دوستی موثر دارد. پایپر جزو اولین افرادی بود که نسبت به پاندمی کووید – ۱۹ واکنش نشان داد و در مورد خطر بروز یک پاندمی جهانی جدی در فوریه ۲۰۲۰ میلادی بحث کرد و اقداماتی مانند پوشیدن ماسک و فاصله گذاری اجتماعی را در مارس همان سال توصیه کرده بود.
به گزارش وُکس؛ چهار سال پیش یکی از بحث برانگیزترین مقالات ام را نوشتم. در آن مقاله استدلال کرده بود که تغییرات آب و هوایی در حالی که در دنیایی که در آن زندگی میکنیم بسیار بدتر میشود و به طور مستقیم و غیر مستقیم به مرگ میلیونها نفر میانجامد به زندگی انسان روی زمین پایان نخواهد داد.
این استدلال از نظر علمی بحث برانگیز نیست. این دیدگاه با پیش بینیهای هیئت بین دولتی تغییرات آب و هوایی (IPCC) و با دیدگاه اکثر دانشمندان آب و هوا سازگار است. برخی از پژوهشگران سناریوهای دامنه ریسک را مطالعه میکنند که در آن گرم شدن سیاره زمین بسیار فاجعه بارتر از آن چه پیش بینی میشود خواهد بود. فکر میکنم مطالعه آن ارزشمند است، اما تحقق این سناریوها بسیار بعید به نظر میرسند.
بنابراین، دلیل بحث برانگیز بودن این استدلال که تغییرات آب و هوایی احتمالا تهدیدی برای پایان دادن به گونهها نیست به دلیل علم نیست. من به توانایی مان برای حل مشکلات بدون اغراق در مورد آن باور دارم و به توانایی مان برای حل مشکلات در حالی که در مورد آن اغراق میکنیم باوری ندارم. برای رفع آن مشکل به تصویر واضحی از آن چه قرار است رخ دهد نیاز دارید.
هوش مصنوعی، جنگ هستهای و پایان جهان
این موضوع اخیرا در ذهن من بوده، زیرا این مورد که هوش مصنوعی یک خطر وجودی برای بشریت ایجاد میکند که از سال ۲۰۱۸ درباره آن نوشته ام به جریان اصلی تبدیل شده است. “الیزر یودکوفسکی” پژوهشگر ایمنی هوش مصنوعی در مقالهای در نشریه “تایم” نوشته بود: “محتملترین نتیجه ساخت یک هوش مصنوعی فوق انسانی هوشمند تحت هر شرایطی که از راه دور شبیه وضعیت فعلی باشد این است که به معنای واقعی کلمه همه بر روی زمین جان شان را از دست خواهند داد”.
او استدلال کرد که ضرورت جدی برای تنظیم مقررات بین المللی تازه علیه ساخت سیستمهای هوش مصنوعی قدرتمند وجود دارد حتی اگر اجرای مقررات به معنای اعمال جنگ علیه کشورهایی باشد که به آن عمل نمیکنند. این نظر از دید بسیاری نسبتا ظالمانه بود. حتی اگر متقاعد شده باشید که هوش مصنوعی ممکن است کاملاً خطرناک باشد بعید به نظر میرسد که آن را واقعا تا آن سطحی کشنده قلمداد کنید که ارزش پذیرش ریسک بروز یک جنگ را داشته باشد (جنگها برای آینده تمدن بشری نیز خطرناک هستند به ویژه جنگهایی که دارای این ظرفیت بالقوه هستند که به تبادل هستهای تبدیل شوند).
یودکوفسکی میگوید: “هوش مصنوعی کنترل نشده فوق بشری احتمالا به تمام زندگی روی زمین پایان میدهد”. او استدلال کرد یک جنگ هستهای علیرغم آن که بسیار بد خواهد بود این کار را انجام نمیدهد و اشاره کرد ما نباید خواستار جنگ هستهای شویم، اما اشتباه است که اجازه دهیم ترس از جنگ ما را از قراردادن قراردادهای بین المللی در مورد هوش مصنوعی باز دارد.
با این وجود، هر دو بخش استدلال او بحث برانگیز است. یک جنگ هستهای ویرانگر خواهد بود و میلیونها نفر را به طور مستقیم به کام مرگ خواهد فرستاد. هم چنین، اگر طوفانهای آتش سوزی ناشی از انفجارهای هستهای دمای سیاره زمین را در مدت زمان طولانی کاهش دهند میتواند فجحعه بارتر باشد احتمالی که در میان متخصصان علوم جوی مورد بحث است.
به نظر میرسد اجتناب از جنگ هستهای باید یکی از بالاترین اولویتهای بشریت باشد، اما بحث در مورد این که آیا “زمستان هسته ای” در نتیجه مبادله هستهای حاصل میشود یا خیر بحثی بی معنی نیست. یکی از راههایی که میتوانیم احتمال مرگ میلیاردها نفر از گرسنگی جمعی را کاهش دهیم کاهش زرادخانههای هستهای امریکا و روسیه است که بسیار کوچکتر از دوران اوج جنگ سرد بودند، اما اخیرا دوباره در حال افزایش هستند.
آیا هوش مصنوعی یک خطر وجودی است؟
در مورد این که آیا هوش مصنوعی همه ما را از بین خواهد برد حقیقت این است که پاسخ به این پرسش واقعا فوق العاده دشوار است. دانشمندان علوم اقلیمی به طور کلی موافق هستند که تغییرات آب و هوایی همه ما را نمیکشد اگرچه عدم اطمینان قابل توجهی در مورد این که کدام سناریوهای دامنه ریسک قابل قبول هستند و تا چه میزان قابل قبول میباشند وجود دارد. پژوهشگران جنگ هستهای در مورد این که آیا زمستان هستهای از جنگ هستهای به وجود میآید یا خیر اختلاف نظر شدیدی با یکدیگر دارند.
با این وجود، هر دوی این اختلافات در مقایسه با میزان اختلاف نظر بر سر تاثیرات هوش مصنوعی کمرنگ و ناچیز به نظر میرسند. شبکه خبری “سی بی اس” اخیرا از “جفری هینتون” دانشمند که پدرخوانده خوش مصنوعی نامیده میشود در مورد ادعاهایی مبنی بر اینکه هوش مصنوعی میتواند بشریت را از بین ببرد پرسشی را مطرح کرد.
هینتون گفته بود: “غیرقابل تصور نیست. این تنها چیزی است که من میگویم. من همین موضوع را از بسیاری از کارشناسان دیگر شنیده ام. به نظر میرسد که ریسکهای بالا واقعا بر روی میز قرار دارند. البته کارشناسان دیگر اصرار دارند که هیچ دلیلی برای نگرانی وجود ندارد”.
پس سوال میلیون دلاری این است که چگونه هوش مصنوعی میتواند ما را از بین ببرد اگر حتی یک جنگ هستهای یا یک پاندمی گسترده یا تغییر قابل توجه دمای جهانی این کار را انجام ندهد. با این وجود، حتی اگر بشریت بسیار سرسخت باشد بسیاری از گونههای دیگر روی زمین وجود دارند که میتوانند به شما بگویند یا میتوانستند پیش از انقراض به شما بگویند که تمدن هوشمندی که به شما اهمیتی نمیدهد میتواند به طور کامل زیستگاه تان را برای بزرگراه هایش بسازد یا به این معنا که هوش مصنوعی شاید کل زیست کُره (بیوسفر) را برای استفاده در پروژههای تمدن هوش مصنوعی خرد کند.
به نظر میرسد که به طور اصولی انجام مبادلات پرمخاطره مانند این بسیار دشوار است. سیاستگذاران نمیدانند برای درک خطرات توسعه هوش مصنوعی به کدام متخصصان مراجعه کنند و هیچ اجماع علمیای برای راهنمایی آنان وجود ندارد. یکی از بزرگترین نکات من در اینجا آن است که ما باید بیشتر بدانیم. اتخاذ تصمیمات خوب بدون درک واضحتر از آن چه میسازیم این که چرا آن را میسازیم و چه چیزی ممکن است اشتباه پیش برود غیرممکن به نظر میرسد.
دیدگاه نیوز را در شبکه های اجتماعی دنبال کنید | |||||||
اخباری که توسط خبر فوری منتشر میشوند به صورت اتوماتیک از منابع مختلف جمعآوری شده و در سایت دیدگاه نیوز انتشار مییابند. مسئولیت صحت یا عدم صحت این اخبار توسط دیدگاه نیوز تایید و یا تکذیب نمیشوند و این اخبار نیز دیدگاه هیئت تحریریه نمیباشند.
دیدگاهتان را بنویسید