هوش مصنوعی، چرنوبیلی تازه

در تاریخ ۱۴ مارس ۲۰۲۳ شرکت Open AI در سانفرانسیسکو که مایکروسافت سرمایه‌گذار عمده‌ آن است، یک سیستم هوش مصنوعی به نام GPT4 را منتشر کرد. در ۲۲ مارس در گزارشی که توسط گروه برجسته‌ای از پژوهشگران مایکروسافت منتشر شد، ادعا شد GPT4 جرقه‌های «هوش مصنوعی عمومی» را نشان می‌دهد. هوش عمومی مصنوعی یا AGI طیف کاملی از وظایفی است که ذهن انسان آن‌ها را انجام می‌دهد یا از آن فراتر می‌رود. یک هفته بعد انستیتو «آینده زندگی»، یک موسسه غیرانتفاعی فعال در حوزه فناوری نامه‌ای سرگشاده منتشر کرد که در آن خواستار توقف آزمایش‌های هوش مصنوعی شده بود. این نامه توسط چهره‌های شناخته‌شده‌ای مانند «ایلان ماسک» مدیر عامل تسلا، «استیو وزنیاک» بنیان گذار اپل و «یوشوا بنجیو» برنده جایزه تورینگ و همچنین صد‌ها دانشمند برجسته هوش مصنوعی امضا شده بود. توفان رسانه‌ای پس از آن کماکان ادامه دارد. اما این همه سر و صدا برای چیست؟ خطرات بالقوه هوش مصنوعی هر روز توانایی‌های شگفت‌انگیز جدیدی از هوش مصنوعی کشف می‌شود. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راه‌هایی برای کسب درآمد از این عرضه نامحدود اطلاعات رایگان هستند. طبق گفته سایت Open AI سیستم GPT4 در طیف وسیعی از آزمون‌های ورودی دانشگاه و تحصیلات تکمیلی از انسان‌ها بیشتر امتیاز می‌گیرد، می‌تواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کرده یا پیش‌نویس سخنرانی یک وزیر را از دیدگاه یک نماینده مجلس از هر حزب سیاسی نقد کند. این سیستم می‌تواند بسیاری از وظایفی را انجام دهد که مشاغل صد‌ها میلیون نفر را در بر می‌گیرد. با وجود این متاسفانه این سیستم‌ها به دلیل دچار توهم شدن و نبود آموزش درست، پاسخ‌های نادرست هم ارائه می‌دهند. این سیستم‌ها ابزار مناسبی برای اطلاع‌رسانی نادرست هستند. مثلا برخی از آن‌ها به خودکشی‌ها دامن می‌زنند یا اطلاعات پزشکی غلطی به کاربر می‌دهند. خطر هوش مصنوعی بیخ گوش شرکت‌های بزرگ به تازگی سامسونگ به کارکنان خود هشدار داده تا در کار با روبات هوش مصنوعی ChatGPT احتیاط کنند. چندی پیش آژانس اطلاعاتی بریتانیا، پلیس اتحادیه اروپا (یوروپل)، شرکت آمازون و حتی OpenAI هم به کاربران توصیه کرده بودند در مکالمات خود با این روبات، از اشتراک هرگونه اطلاعات شخصی و حساس خودداری کنند. در همین زمینه طی 20 روز گذشته، سه مورد نشت اطلاعات از شرکت سامسونگ براثر کار با ChatGPT گزارش شده است. در یکی از این موارد، یکی از کارکنان این شرکت از روبات چت هوش مصنوعی خواسته بود تا خطاهای موجود در کدهای یک تراشه نیمه‌هادی حساس را چک کند. یکی دیگر از مهندسان این شرکت هم از ChatGPT خواست تا کدهایش را بهبود ببخشد. مورد سوم هم کارمندی بود که متن پیاده‌شده جلسه‌ای محرمانه را در اختیار روبات هوش مصنوعی قرار داد و از این ابزار خواست تا آن را خلاصه‌ کند. اتفاقاتی که باعث لو رفتن اطلاعات سرّی شرکت‌ها شده و ممکن است خسارت‌های جبران‌ناپذیری به بار بیاورد. مسابقه بشر و هوش مصنوعی در حالی که Open AI تلاش‌های زیادی انجام داده تا GPT4 به درخواست‌های حساس مثل توصیه‌های پزشکی و آسیب رساندن افراد به خود پاسخ ندهد، اما مشکل اصلی این است که نه Open AI و نه هیچ کس دیگری ایده‌ای واقعی درباره نحوه عملکرد GPT4 ندارند. فعلا به دلیل وجود دلایل فنی GPT4 در اجرای طرح‌های پیچیده محدود است، اما با توجه به سرعت پیشرفت، دشوار است که بگوییم نسخه‌های آینده آن چنین توانایی نخواهند داشت. همین موضوع منجر به یکی از نگرانی‌های اصلی آن نامه سرگشاده می‌شود: چگونه می‌توانیم قدرت‌مان را بر موجودات قدرتمندتر از خودمان برای همیشه حفظ کنیم؟ ایده اصلی نامه سرگشاده این است که هیچ سیستمی تا زمانی که طراح آن به طور قانع‌کننده ثابت کند خطر ندارد، نباید منتشر شود. انفجار نیروگاه هسته‌ای چرنوبیل زندگی بسیاری از انسان‌ها را نابود و تلفات و هزینه‌های زیادی هم بر صنعت هسته‌ای جهانی تحمیل کرد. بشریت چیز‌های زیادی برای به دست آوردن از هوش مصنوعی دارد، اما همزمان چیز‌های زیادی هم برای باخت در مقابل آن دارد. برگرفته از سایت فرارو