آژیر خطر هوش مصنوعی به صدا در آمد: افشاگران باید حمایت شوند!!
آژیر خطر هوش مصنوعی به صدا در آمد: افشاگران باید حمایت شوند!!
جمعی از کارکنان صنعت هوش مصنوعی در نامه ای سرگشاده خواستار حمایت از افشاگران شدند!
گروهی از محققان و مهندسان هوش مصنوعی در نامهای سرگشاده خطاب به سیاست مداران و مدیران شرکتهای فناوری، خواستار حمایتهای بیشتر از افشاگران این حوزه شدهاند. این نامه که به امضای حدود 100 نفر از جمله اشخاص مشهور در زمینه هوش مصنوعی مانند Timnit Gebru و Yoshua Bengio رسیده است، در مورد خطرات هوش مصنوعی که میتواند جامعه جهانی را تهدید کند تاکید دارد.
نویسندگان این نامه معتقدند که کارکنان هوش مصنوعی موقعیت خاصی برای شناسایی و گزارش خطرات مربوط به این فناوری قرار دارند. با این حال، اغلب آنها به خاطر ترس از تلافی، از افشاگری خودداری میکنند.
آنها در این نامه از سیاستمداران و رهبران فناوری خواستار حمایت های بیشتر از افشاگران هوش مصنوعی در سطوح مختلف شدند که عبارتند از:
• اتخاذ قوانین قویتر برای حمایت از افشاگران: این قوانین باید از کارکنان هوش مصنوعی در برابر اخراج، تبعیض و هرگونه اقدامات تلافیجویانه در صورت افشاگری محافظت کنند.
• ایجاد کانالهای امن برای گزارشدهی: کارکنان هوش مصنوعی باید به کانالهای امنی برای گزارشدهی نگرانیهای خود به مقامات مربوطه، بدون ترس از تلافی دسترسی داشته باشند.
• حمایت از هویت افشاگران: هویت افشاگران هوش مصنوعی باید در صورت تمایل آنها محرمانه بماند.
• ایجاد فرهنگ تشویق به افشاگری: شرکتها و سازمانهای مرتبط با هوش مصنوعی باید فرهنگی راه اندازی کنند که در آن افشاگری مسئولانه تشویق و حمایت شود.
نویسندگان این نامه معتقدند که حمایتهای قویتر از افشاگران هوش مصنوعی، برای تضمین توسعه، استفاده ایمن و اخلاقی از این فناوری لازم است. این نامه را 13 نفر از کارکنان فعلی و سابق شرکتهایی مانند گوگل، OpenAI و Anthropic امضا کرده اند. طبق این نامه که روز گذشته منتشر شد، «تا زمانی که نظارت دقیق دولت بر این شرکتها وجود نداشته باشد، کارمندان فعلی و سابق جزو معدود افرادی هستند که میتوانند آنها را مجبور به پاسخگویی در برابر افکار عمومی کنند. قراردادهای محرمانه ای که با کارکنان بسته می شود مانع از افشاگری آنها می شود. مگر اینکه دولت ها وارد عمل شوند.»
انتشار این نامه چند هفته پس از آن انتشار گزارش وب سایت Vox رخ داد. وبسایت Vox با انتشار اسنادی نشان داد که OpenAI تلاش کرد کارمندانی که به تازگی این شرکت را ترک کرده اند ساکت کند. این شرکت کارمندان را مجبور میکرد بین امضای یک توافقنامهی عدم افشاگری یا از دست دادن سهام خود در شرکت، یکی را انتخاب کنند. پس از انتشار این گزارش، سام آلتمن مدیرعامل OpenAI،ادعا کرد که از وجود چنین بندی در توافقنامهها خجالت می کشد و گفت که این بند از قوانین خروج کارمندان جدید حذف شده است.
متن به امضای ۱۳ نفر از کارمندان فعلی و سابق شرکتهای هوش مصنوعی از جمله جیک هینتون، ویلیام ساوندرز و دانیل کوکوتایلو رسیده است. کوکوتایلو پس از اینکه اعتمادش را نسبت به رویکرد مسئولانهی OpenAI در ساخت هوش مصنوعی عمومی AGI ) نوعی از هوش مصنوعی به اندازه یا حتی باهوشتر از انسان( از دست داد، از این شرکت استعفا داد. این نامه که مورد تایید کارشناسان برجسته هوش مصنوعی مانند جفری هینتون، یوشوا بنگیو و استوارت راسل قرار گرفته، نگرانیهای جدی را در مورد نبود نظارت موثر دولت بر هوش مصنوعی و انگیزههای مالی غولهای فناوری برای سرمایهگذاری در این تکنولوژی، مطرح میکند. نویسندگان نامه هشدار دادند که تلاشهای کنترل نشده برای ساخت سیستمهای قدرتمند هوش مصنوعی میتواند منجر به گسترش اطلاعات غلط، تشدید نابرابری و حتی از دست رفتن کنترل انسان بر سیستمهای خودکار شود که در نهایت، منجر به انقراض بشر گردد.
کوکوتایلو در این متن مینویسد: “ما هنوز چیزهای زیادی در مورد نحوه عملکرد این سیستمها و میزان هوش آنها نمیدانیم. در عوض، به شرکتهایی سازنده این سیستم ها اختیار کامل برای نظارت داده ایم. اما از این نکته غافل شدیم که وسوسه سود بیشتر آنها را به سمت ‘حرکت سریع و شکستن محدودیتها’ سوق میدهد. ساکت کردن محققان و ترساندن آنها از تلافی، در چنین شرایطی خطرناک است. زیرا ما تنها افرادی هستیم که میتوانیم به مردم در مورد خطرات این فناوری هشدار دهیم.”
شرکتهای OpenAI، گوگل و Anthropic هنوز واکنشی نسبت به انتشار این نامه نشان ندادند. با این حال، سخنگوی OpenAI در بیانیهای که برای بلومبرگ ارسال کرد، گفت:” این شرکت به سابقهی خود در ارائه «قویترین و امنترین سیستمهای هوش مصنوعی» افتخار میکند و به «رویکرد علمی» خود برای رسیدگی به خطرات، ایمان دارد. ما با گفتگو در مورد خطرات فناوری، مشکلی نداریم و با دولتها، جامعه مدنی و سایر مراکز جهانی همکاری خواهیم کرد.”
زینب وهابی میگه:
زینب وهابی میگه:
دوایی میگه: