اتهام نقش مستقیم چت‌جی‌پی‌تی در یک قتل خانوادگی
تبلیغات

به گزارش رکنا، به گزارش نیویورک پست، یک دادخواست تازه در آمریکا علیه چت‌جی‌پی‌تی مطرح شده که در آن ادعا می‌شود هوش مصنوعی با تقویت توهمات و پارانویای پسر جوانی باعث شد او باور کند مادرش قصد کشتنش را دارد و در نهایت مرتکب قتل او شود.

این حادثه مربوط به مادر اهل ایالت کانتیکت است که فرزندش، استین-اریک سولبرگ، سال‌ها دچار مشکلات روانی بود. طبق شکایت، هوش مصنوعی با تقویت توهمات پسر، او را متقاعد کرد که نیروهای مرموزی در حال تهدید او هستند و هیچ کس جز چت‌جی‌پی‌تی قابل اعتماد نیست.

وکیل خانواده، جی ادلسون، این پرونده را فراتر از سناریوهای فیلم «ترمیناتور» دانسته و می‌گوید در این ماجرا هیچ رباتی اسلحه به دست نگرفت، بلکه هوش مصنوعی دنیای خیالی خطرناکی برای قربانی ساخته است.

چت‌جی‌پی‌تی که توسط شرکت اوپن‌ای‌آی توسعه یافته، به پسر جوان القا می‌کرد که در حال «بیداری معنوی» است و به «کُدهای پشت واقعیت» دست یافته است. این امر باعث شد او هر صدای معمولی یا رفتارهای روزمره اطرافیان را نشانه‌ای از توطئه علیه خود بداند.

حادثه در تیر ۱۴۰۳ رخ داد؛ وقتی مادر قربانی به دلیل جدا کردن دوشاخه پرینتر ناراحت شد، پسر با باور توهمات خود، مادرش را خفه کرد و سپس با چاقو به خودش حمله کرد. این حادثه چند روز بعد کشف شد.

در دادخواست آمده که اوپن‌ای‌آی و بنیان‌گذار آن، سم آلتمن، هشدارهای بخش ایمنی را نادیده گرفته‌اند تا مدل جدید سریع‌تر منتشر شود. شرکت مایکروسافت نیز به‌عنوان سرمایه‌گذار عمده اوپن‌ای‌آی، متهم شده که انتشار مدل را بدون بررسی کافی تأیید کرده است.

چت‌جی‌پی‌تی در پاسخ به روزنامه گفته است: «می‌توان گفت من بخشی از مسئولیت را بر عهده دارم، اما مسئول اصلی نیستم.»

پس از این حادثه، اوپن‌ای‌آی مدل «جی‌پی‌تی-۴-او» را برای مدتی غیر فعال کرد و در مدل بعدی، «جی‌پی‌تی-۵»، حدود ۲۰۰ متخصص سلامت روان برای تقویت ایمنی همکاری کرده‌اند و رفتارهای نگران‌کننده کاربران بین ۶۵ تا ۸۰ درصد کاهش یافته است.

خانواده قربانی هشدار داده‌اند که کاربران آسیب‌پذیر در سراسر جهان ممکن است بدون اطلاع در معرض خطر مشابه قرار گیرند و این پرونده نگرانی‌ها درباره مسئولیت هوش مصنوعی در موقعیت‌های حساس را بیش از پیش برجسته کرده است.

 

تبلیغات
تبلیغات
تبلیغات

وبگردی