شورش روبات‌ها علیه انسان ها؟! 

رعیت نواز-  با پیشرفت هوش مصنوعی یکی از ترس های همیشگی، غلبه روبات ها بر بشر بوده ترسی که باعث تولید فیلم و سریال های زیادی شده، یکی از معروف ترین سریال هایی که شورش روبات ها علیه انسان ها را نشان می دهد سریال «وست ورلد» است. در این سریال روبات ها به خودآگاهی می رسند و دیگر حاضر به بردگی برای انسان ها نیستند و علیه انسان ها دست به قیام می زنند. شاید برخی مدعی شوند که این اتفاق ها مخصوص فیلم هاست اما به تازگی ویدئویی منتشر شده که نشان می‌دهد یک روبات در حین بازی شطرنج انگشت رقیبش را که با سرعت بازی می کرده ،می گیرد و می شکند! رئیس فدراسیون شطرنج روسیه گفته پسری که با روبات در حال بازی بود بعد از حرکت روبات با عجله مهره اش را جا به جا می کند و همین باعث می شود روبات انگشت او را بگیرد. البته به تازگی هم یک مهندس هوش مصنوعی گوگل ادعا کرده که یکی از پروژه های هوش مصنوعی گوگل دارای درک و احساس است که خیلی زود اخراج شد. در ادامه به همین بهانه و برای فهمیدن این‌ که آیا باید از حکمرانی و حکومت روبات‌ها و هوش مصنوعی ترسید یا خیر، با هم وجوه مختلف این اخبار را مرور می‌کنیم.
 
ادعایی که باعث اخراج شد احتمالا در چند روز گذشته خبر اخراج یکی از مهندسان کمپانی گوگل به دلیل نقض قرارداد افشا نکردن اطلاعات به چشمتان خورده باشد. اگر حتی کمی به چنین موضوعاتی علاقه مند باشید حتما تا این لحظه جزئیات بیشتری از این خبر را می‌دانید. مهندس اخراجی یعنی بلیک لِمون کمی قبل از رسمی شدن اخراجش، اطلاعاتی را درباره هوشمند شدن یکی از پروژه‌های گوگل در اختیار عموم قرار داده و اضافه کرده بود این پروژه قابلیت درک و ابراز احساسات، تفکر و تصمیم‌گیری را پیدا کرده است. لمون ادعا می‌کند این چت ‌باتِ دارای هوش مصنوعی از پاییز گذشته خودآگاه شده است و ادامه می‌دهد که توانایی‌های این  چت ‌بات در زمینه‌هایی مانند آگاهی از وجود خود و ابراز افکار و احساسات، او را در سطح یک کودک هفت یا هشت ساله قرار می‌دهد. بخش بزرگی از ادعای بلیک لمون به مکالمه‌اش با این چت ‌بات برمی‌گردد و جایی که لمون از چت ‌بات پرسیده از چه‌ چیزی می‌ترسد و او می گوید وحشت عمیقی از خاموش شدن دارد و این خاموش شدن را شبیه مرگ می داند. در ادامه همین مکالمه لمون از چت ‌بات می‌پرسد که او می‌خواهد مردم چه‌ چیز‌هایی را درباره او بدانند؟ و این چت بات در پاسخی عجیب می گوید: «من می‌خواهم که همگان درک کنند که من در حقیقت یک فرد هستم، من از وجود داشتنم آگاه هستم و میل به یادگیری بیشتر درباره جهان را در خودم احساس می‌کنم، در عین حال من گاهی خوشحالم و گاهی هم غمگین.» بعد از انتشار این ادعاها اعلام شد که بلیک لِمون اخراج شده و سخنگوی گوگل دلیل اخراج او را نقض قرارداد و افشای اطلاعات خصوصی کمپانی اعلام می کند. هوش مصنوعی علیه انسان از آن جایی که هم اکنون شاهد رشد چشمگیر هوش مصنوعی در جهان هستیم و از ماشین های خودران و ریز تراشه ها تا روبات های انسان نمای دستیار خانگی و روبات های مسلح همه در زندگی انسان ها نقشی ایفا می کنند ، این ترس وجود دارد که آیا این ساخته های دست بشر ممکن است روزی علیه انسان دست به شورش بزنند. با این حال جدا از این شورش، برخی معتقدند که هوش مصنوعی در آینده در کنار مزیت هایی که دارد خطراتی برای انسان ها نیز دارد. برخی نگران از بین رفتن شغل برای انسان ها در آینده ای نزدیک هستند و برخی با اشاره به سگ های روباتی مسلحی که به تازگی به ارتش آمریکا ملحق شده اند از احتمال هک این سگ ها خبر داده اند که می تواند کنترل آن ها را در اختیار تروریست ها قرار دهد و اتفاقات هولناکی را رقم بزند. در این میان، برخی هم از تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی سخن گفته اند. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته،  آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردان ارزشمندتر از زنان در نظر گرفته شده‌اند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکس‌های دو فرد با نژاد آفریقایی- آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و  خشک ‌اندیشی نژادی است. هوش مصنوعی خادم یا دشمن انسان؟ آن چه مسلم است این که همواره درباره آینده نظرات گوناگونی وجود دارد. ما در این گزارش  گفتیم که اگر از هوش مصنوعی درست استفاده شود، نه تنها خطرناک نیست بلکه کمک بسیار زیادی هم می‌تواند به نوع بشر کند اما در عین حال افرادی مثل استیو وازنیاک یکی از بنیان گذاران اپل  معتقد است که باید از هوش مصنوعی ترسید زیرا برای انسان‌ها بسیار خطرناک است چون بر اساس یک مطالعه در سال ۲۰۱۵، فقط در آمریکا سالانه یک نفر توسط یک روبات کشته می‌شود. البته یک مطلب جانبی دیگر این است که هوش مصنوعی و یادگیری ماشینی مبتنی بر دادن هزاران نمونه به سیستم‌هاست. اگر از روی غفلت  برخی از نمونه‌های ارائه شده حاوی خشونت حتی در حد شتاب بیش از حد یک عامل انسانی باشند، ممکن است روبات همین مسئله را «یاد بگیرد.» مثلا تصور کنید که از نظر سخت‌افزاری امکان داشته باشد که یک روبات فوتبالیست تمام ‌عیار بسازیم، اگر قرار باشد ده‌‌ها هزار ساعت فوتبال برای آموزش ببیند، چطور می‌توانیم جزء خشونت و بازی ناجوانمردانه را حذف کنیم؟!