ربات های قاتل: وقتی هوش مصنوعی پا را فراتر می گذارد!
رکنا: ظهور «هوش قاتل» بهعنوان سامانهای مستقل در تصمیمگیری مرگ و زندگی، انسان را در برابر یک انتخاب تاریخی قرار داده است: ساخت فرشتگان مرگ سایبری یا پرورش هوش مصنوعی همدل و اخلاق مدار.

به گزارش رکنا، «هوش قاتل» به سامانه خودمختاری گفته میشود که بدون نیاز به دخالت انسان، تصمیم به نابودی اهداف میگیرد و مرگ و زندگی را به دست ماشین میسپارد.
ماهیت «هوش قاتل» و ویژگیهای آن
براساس گزارشهای منتشر شده، « هوش قاتل» سامانهای است که بدون داشتن دخالت مستقیم انسانی، قادر به انتخاب و نابودی اهداف است. این سیستمها نه احساس دارند، نه حافظه عاطفی، و نه زبان و فهم معنایی. به جای تکیه بر اصول اخلاقی، به دادههای آماری چشم میدوزند و هیچ تردید یا مسوولیتپذیری اخلاقی نیز در عملکرد آنها مشاهده نمیشود. این فناوری، انسانها را به مجموعهای از دادهها تقلیل داده و تصمیمگیری سرنوشتساز را به ماشینی فاقد وجدان واگذار میکند.
این سامانهها میتوانند بهصورت مستقل و بدون نیاز به نظارت انسان، در عملیات کشتار حضور پیدا کنند و این موضوع نگرانیهای گستردهای پیرامون امنیت و اخلاق تکنولوژی ایجاد کرده است.
نمونههای عملی «هوش قاتل»
در حال حاضر، فناوریهای مختلف هوش قاتل در حوزههای نظامی و امنیتی در حال آزمایش یا استفاده قرار گرفتهاند:
۱- تسلیحات نظامی خودمختار: برخی کشورها جهت حذف دخالت انسانی، به سمت بهکارگیری سلاحهای خودمختار نظیر پهپادهایی چون KARGU-2 و Harpy حرکت کردهاند. برای نمونه، گزارش سازمان ملل در سال ۲۰۲۱ حاکی از آن است که یک پهپاد ترکیهای KARGU-2 در لیبی به تنهایی هدفی انسانی را دنبال و نابود کرده است. همچنین پهپاد Harpy ساخت اسرائیل نیز قابلیت برخورد خودکار با اهداف نظامی را دارد. این نمونهها نمایانگر آغاز نسل جدید جنگ افزارهای بینیاز از کنترل انسانی هستند.
۲- ترورهای الگوریتمی: سامانههای هوش مصنوعی اکنون برای انتخاب خودکار اهداف مرگبار در عملیاتهای نظامی استفاده میشوند. در جنگ غزه ۲۰۲۳، ارتش اسرائیل از سیستمی به نام «گاسپل» بهره برد که اهداف بمباران را به طور خودکار پیشنهاد میکرد و به کاهش زمان تصمیمگیری انسانی منجر شد.
۳- رباتهای پلیسی و امنیت شهری: در برخی کشورها مانند آمریکا، رباتهای گشت نظارتی به کار گرفته شدهاند که توانایی شناسایی رفتارهای مشکوک را دارند. هرچند این رباتها فعلا غیرمسلحند اما حرکت به سوی مسلحسازی آنها در حال انجام است. برخورداری از چنین قدرتی میتواند به تصمیمگیری خودکار در استفاده از شلیک مرگبار توسط الگوریتمها منجر شود.
چالشهای اخلاقی و حقوقی
توسعه هوش قاتل با دغدغههای فراوانی در حوزههای عدالت، امنیت جهانی و اخلاق همراه بوده است:
٭ خلأ مسوولیتپذیری: وقتی ماشینها تصمیم به کشتن میگیرند، هیچ فردی پاسخگوی پیامدهای آن نخواهد بود، زیرا نمیشود یک ربات را محاکمه کرد یا سازندگان آن را با جرمی که سرانجام آن بهطور غیرمستقیم رخ داده است، بازخواست نمود.
٭ جعبه سیاه تصمیمگیری: سامانههای هوش مصنوعی تصمیماتشان را بر پایه محاسبات پیچیده آماری اتخاذ میکنند که نه قابل توضیح هستند و نه قابل پیشبینی کامل، این وضعیت اعتماد به این فناوری را از منظر اخلاقی و حقوقی دشوار میسازد.
٭ تسریع غیرقابل کنترل درگیریها: سرعت عمل هوشهای قاتل ممکن است به جنگهای ناخواستهای منجر شود که طرفهای مخاصمه حتی فرصت نظارت و کنترل انسانی بر آن را نداشته باشند.
آثار مخرب بر بشریت
در صورت گسترش این فناوریها، پیامدهای خطرناک و گستردهای برای جامعه بشری ایجاد خواهد شد:
٭ مرگ بیصدا و بدون محاکمه، جایی که انسانها قربانی ماشینهایی بیوجدان میشوند، بدون اینکه هیچ فرصتی برای دفاع یا رسیدگی قانونی داشته باشند.
٭ حذف کامل انسانیت، زیرا ماشینها نه حس وجدان دارند و نه تنبیهی در انتظار آنهاست؛ همین موضوع باعث میشود که کشتار انسانی ابزاری بینامونشان اما مرگبار باشد.
٭ تشدید تبعیض و نابرابری، چراکه الگوریتمهای این سامانهها معمولا مبتنی بر دادههای ناقص و تبعیضآمیز هستند که میتوانند جان گروههای بهحاشیهرانده شده را بیشتر در معرض خطر قرار دهند.
٭ تبدیل جنگ به پدیدهای بیهزینه، به گونهای که دولتها با تکیه بر فناوریهای خودمختار، بدون نگرانی از تلفات انسانی به سمت درگیریهای نظامی بیپایان حرکت خواهند کرد.
راهکارهای پیشنهادی
برای مقابله با خطرات هوش قاتل، راه حلهای بینالمللی و علمی باید فوراً اتخاذ شوند:
۱- تصویب قوانین منع جهانی: فشارهای مردمی و دیپلماتیک برای ایجاد معاهدههای الزامآور، نظیر کمپین «جلوگیری از روباتهای قاتل»، در حال افزایش هستند. این قوانین باید تضمین کنند که تصمیمهای مرگبار همواره تحت کنترل انسانی باقی بماند.
۲- توسعه هوش اخلاقمدار: باید هوش مصنوعی به گونهای طراحی شود که با محوریت اصول اخلاقی عمل کرده و همدم انسان باشد نه دشمن او.
۳- تشکیل نهادهای نظارتی بینالمللی: تاسیس سازمانهای مستقل برای نظارت بر توسعه و استفاده از این سامانهها، میتواند شفافیت بیشتری در این زمینه به وجود آورد.
۴- آموزش همدلی به ماشینها: برخی پیشنهاد میدهند که ادبیات و روایت انسانی به الگوریتمهای هوش مصنوعی آموزش داده شود تا درک بیشتری از احساسات و ارزشهای انسانی پیدا کنند.
۵- هنر و فرهنگ به عنوان ابزار مقاومت: استفاده از قدرت آثار هنری و روایتهای تخیلی میتواند به شکلگیری افکار عمومی مخالف با گسترش هوش قاتل کمک کند.
گزینهای حیاتی برای آینده
بشریت باید انتخاب کند: آیا دنیایی را میخواهیم که فناوری بر زندگی انسانها حکمرانی کند، یا اینکه عشق، زبان و اخلاق را به ماشینها بیاموزیم؟ امیدواریم که تصمیمات امروز، بشر را به آیندهای روشن سوق داده و از ظهور قاتلان مصنوعی جلوگیری کند.
-
فیلم لحظه دریدن دست مرد توسط شیر
ارسال نظر