این محققان هشدار دادند پیشرفت حاصل شده از زمان اولین اجلاس ایمنی هوش مصنوعی در «بلچلی پارک» انگلیس که ۶ ماه پیش برگزار شده بود تاکنون ناکافی بوده است. در آن زمان رهبران جهان متعهد به اداره مسئولانه امور مربوط به هوش مصنوعی شدند. اکنون در حالی که زمان برگزاری دومین اجلاس ایمنی هوش مصنوعی در سئول کره جنوبی روزهای ۲۱ و ۲۲ مه (اول و دوم خرداد) فرا رسیده است، ۲۵ تن از دانشمندان برجسته هوش مصنوعی در جهان میگویند اقدام کافی برای محافظت از مردم در برابر خطرهای این فناوری انجام نشده است.
این دانشمندان در یک مقاله اجماعی که روز گذشته در نشریه ساینس منتشر شد، اولویتهای فوری سیاستگذاری برای اقدام رهبران جهان به منظور رویارویی با تهدیدات ناشی از فناوریهای هوش مصنوعی را مشخص کردند.
پروفسور فیلیپ تور از دانشکده علوم مهندسی دانشگاه آکسفورد و از نویسندگان این مقاله خاطرنشان کرد: جهان در اجلاس قبلی در این خصوص به توافق رسید که ما نیازمند اقدام هستیم؛ اما اکنون زمان آن است که از پیشنهادهای مبهم به سمت تعهدات ملموس و واقعی حرکت کنیم. این مقاله توصیههای مهمی را در این خصوص ارائه میدهد که دولتها و شرکتها باید متعهد به انجام چه اقداماتی شوند.
بنا به نوشته مولفان این مقاله، رهبران جهان باید این احتمال را جدی بگیرند که سامانههای هوش مصنوعی جامع (generalist) بسیار نیرومند که در بسیاری حوزههای مهم از تواناییهای انسانی فراتر میرود، در دهه جاری یا دهه آینده ایجاد خواهند شد. آنان میگویند هر چند دولتها در سراسر جهان در حال بحث درباره هوش مصنوعی پیشرو بوده و تلاشهایی برای معرفی برخی خطمشیهای راهنما کردهاند؛ این مساله با احتمال پیشرفت سریع و متحولکننده مورد انتظار بسیاری کارشناسان متناسب نیست.
در حال حاضر فقدان تحقیقات جدی درباره ایمنی هوش مصنوعی وجود دارد؛ طوری که تنها ۱ تا ۳ درصد از مقالات تحقیقی در این حوزه با مساله ایمنی ارتباط دارد. همچنین سازکارها و نهادهای لازم برای جلوگیری از سوءاستفاده از هوش مصنوعی وجود ندارد.
این کارشناسان و دانشمندان از کشورهای چین، آمریکا، اتحادیه اروپا، انگلیس و سایر کشورها، یک درخواست فوری برای اقدام در این زمینه مطرح کردهاند. این مقاله اولین نمونهای است که چنین گروه بزرگ و بینالمللی از کارشناسان در خصوص اولویتهای لازم برای سیاستگذاری جهان در ارتباط با خطرهای ناشی از سامانههای پیشرفته هوش مصنوعی توافق کردهاند.
این دانشمندان به دولتهای جهان توصیه کردهاند اقداماتی در زمینه تاسیس نهادهای کارشناسی اقدام سریع برای نظارت بر هوش مصنوعی و ارزیابی جدی خطر با پیامدهای اجرایی انجام دهند. همچنین از شرکت های حوزه هوش مصنوعی بخواهند به مساله ایمنی اولویت و نشان دهند سامانههای آنها قادر به ایجاد آسیب نیستند. این محققان همچنین توصیه کردهاند دولتها استانداردهایی در خصوص کاهش خطرهای متناسب با سطح ریسک ناشی از سامانههای هوش مصنوعی اجرا کنند.
هم اکنون هوش مصنوعی در حال پیشرفت سریع در حوزههای حیاتی مانند هک، دستکاری اجتماعی و برنامهریزی راهبردی است و احتمال دارد به زودی چالشهای بیسابقهای ایجاد کند.
دیدگاه نیوز را در شبکه های اجتماعی دنبال کنید | |||||||
اخباری که توسط خبر فوری منتشر میشوند به صورت اتوماتیک از منابع مختلف جمعآوری شده و در سایت دیدگاه نیوز انتشار مییابند. مسئولیت صحت یا عدم صحت این اخبار توسط دیدگاه نیوز تایید و یا تکذیب نمیشوند و این اخبار نیز دیدگاه هیئت تحریریه نمیباشند.
دیدگاهتان را بنویسید