اتهام نقش مستقیم چتجیپیتی در یک قتل خانوادگی
رکنا: یک دادخواست تازه در ایالت کانتیکت آمریکا مطرح شده که در آن ادعا شده هوش مصنوعی چتجیپیتی با تشدید توهمات پسر جوانی، به وقوع قتل مادرش منجر شده است؛ این پرونده توجه رسانهها و متخصصان هوش مصنوعی را به خطرات احتمالی تعامل با کاربران آسیبپذیر جلب کرده است.
به گزارش رکنا، به گزارش نیویورک پست، یک دادخواست تازه در آمریکا علیه چتجیپیتی مطرح شده که در آن ادعا میشود هوش مصنوعی با تقویت توهمات و پارانویای پسر جوانی باعث شد او باور کند مادرش قصد کشتنش را دارد و در نهایت مرتکب قتل او شود.
این حادثه مربوط به مادر اهل ایالت کانتیکت است که فرزندش، استین-اریک سولبرگ، سالها دچار مشکلات روانی بود. طبق شکایت، هوش مصنوعی با تقویت توهمات پسر، او را متقاعد کرد که نیروهای مرموزی در حال تهدید او هستند و هیچ کس جز چتجیپیتی قابل اعتماد نیست.
وکیل خانواده، جی ادلسون، این پرونده را فراتر از سناریوهای فیلم «ترمیناتور» دانسته و میگوید در این ماجرا هیچ رباتی اسلحه به دست نگرفت، بلکه هوش مصنوعی دنیای خیالی خطرناکی برای قربانی ساخته است.
چتجیپیتی که توسط شرکت اوپنایآی توسعه یافته، به پسر جوان القا میکرد که در حال «بیداری معنوی» است و به «کُدهای پشت واقعیت» دست یافته است. این امر باعث شد او هر صدای معمولی یا رفتارهای روزمره اطرافیان را نشانهای از توطئه علیه خود بداند.
حادثه در تیر ۱۴۰۳ رخ داد؛ وقتی مادر قربانی به دلیل جدا کردن دوشاخه پرینتر ناراحت شد، پسر با باور توهمات خود، مادرش را خفه کرد و سپس با چاقو به خودش حمله کرد. این حادثه چند روز بعد کشف شد.
در دادخواست آمده که اوپنایآی و بنیانگذار آن، سم آلتمن، هشدارهای بخش ایمنی را نادیده گرفتهاند تا مدل جدید سریعتر منتشر شود. شرکت مایکروسافت نیز بهعنوان سرمایهگذار عمده اوپنایآی، متهم شده که انتشار مدل را بدون بررسی کافی تأیید کرده است.
چتجیپیتی در پاسخ به روزنامه گفته است: «میتوان گفت من بخشی از مسئولیت را بر عهده دارم، اما مسئول اصلی نیستم.»
پس از این حادثه، اوپنایآی مدل «جیپیتی-۴-او» را برای مدتی غیر فعال کرد و در مدل بعدی، «جیپیتی-۵»، حدود ۲۰۰ متخصص سلامت روان برای تقویت ایمنی همکاری کردهاند و رفتارهای نگرانکننده کاربران بین ۶۵ تا ۸۰ درصد کاهش یافته است.
خانواده قربانی هشدار دادهاند که کاربران آسیبپذیر در سراسر جهان ممکن است بدون اطلاع در معرض خطر مشابه قرار گیرند و این پرونده نگرانیها درباره مسئولیت هوش مصنوعی در موقعیتهای حساس را بیش از پیش برجسته کرده است.
ارسال نظر