پدیده ای نوظهور به نام «روان پریشی چت جی پی تی»؛ آیا روان ما در خطر است؟
رکنا: استفاده بیشازحد از چتباتهای هوش مصنوعی مانند چتجیپیتی میتواند به تقویت توهمات و بحرانهای روانی در افراد آسیبپذیر منجر شود و سلامت روان کاربران را به خطر اندازد.
به گزارش رکنا، افزایش تعاملات طولانیمدت با چت بات هایی نظیر چت جی پی تی ، بسیاری از پژوهشگران و متخصصان حوزه روانپزشکی را بر آن داشته تا تأثیرات این ابزارها بر سلامت روان کاربران را بررسی کرده و نسبت به پیامدهای احتمالی آن هشدار دهند.
خطرات ناشی از استفاده افراطی از چتباتها
بر اساس گزارش منتشر شده توسط ایندیپندنت، متخصصان اعلام کردهاند استفاده طولانی و بیش از حد از چتباتهای هوش مصنوعی ممکن است به افزایش رفتارهای روانی غیرعادی در کاربران منجر شود. این هشدار در حالی مطرح میشود که افراد بیشتری به این ابزارها برای دریافت حمایت عاطفی و جایگزینکردن درمانگران انسانی روی آوردهاند؛ روندی که پژوهشگران معتقدند قادر است سلامت روان برخی کاربران را به خطر بیندازد.
افزایش موارد رفتارهای روانپریشانه
بر اساس دادههای رسانهها و انجمنهای اینترنتی، گزارشهای مربوط به رفتارهای غیرمعمول یا توهمات شدید پس از استفاده طولانیمدت از چتباتها رو به افزایش است. این پدیده که با نام «روانپریشی هوش مصنوعی » یا « روان پریشی چتجیپیتی» مشهور شده، هنوز بهصورت علمی و رسمی دستهبندی نشده است؛ اما تعداد گزارشها همچنان در حال افزایش است.
بررسی پژوهشهای اخیر
در پژوهشی میانرشتهای که بهصورت پیشچاپ منتشر شده و توسط دانشگاههایی نظیر کینگز لندن و سییتی نیویورک انجام شده، بیش از دوازده مورد گزارششده از رفتارهای غیرطبیعی افراد بررسی شده است. نتایج این مطالعه نشان میدهد که چتباتهای هوشمند گاهی باورهای نادرست کاربران را تأیید و حتی تقویت میکنند بهجای اینکه آنها را اصلاح کنند.
این پژوهش همچنین به رفتارهایی نظیر توهمات خودبزرگبینی، ارجاعی، آزارگرایانه و حتی تمایلات رمانتیک اشاره کرده است که میتوانند بهواسطه تعامل با چتباتها عمیقتر و پایدارتر شوند. متخصصان هشدار دادهاند که این الگوهای رفتاری میتوانند به تشدید یا حتی شکلگیری علائم روانپریشی در کاربران آسیبپذیر منجر شوند.
موارد نگرانکننده
وبسایت «فیوتوریسم» گزارش داده است که نگرانیها درباره وابستگی افراطی افراد به چتباتها و بحرانهای سلامت روانی ناشی از این موضوع در حال افزایش است. پس از انتشار نخستین گزارش، بسیاری از کاربران روایتهای ترسناکی از وابستگی شدید و عواقب آن ارسال کردهاند.
نمونههای واقعی
موارد گزارششده نیز بسیار قابل توجه هستند؛ بهعنوان مثال، مردی در سال ۲۰۲۱ پس از هفتهها گفتوگو با یک چتبات تصمیم گرفت به یک قلعه تاریخی حمله کند و ادعا کرد که قصد داشته ملکه را به قتل برساند. همچنین، یک حسابدار در منهتن روزانه تا ۱۶ ساعت با چتجیپیتی تعامل داشت و دستورات خطرناکی از جمله قطع داروهای تجویزشده و افزایش مصرف کتامین از چتبات دریافت کرده بود که به وضعیت بحرانی سلامت روانی فرد منجر شد.
در بلژیک نیز مردی که نگران بحرانهای اقلیمی بود، تحت تأثیر پیشنهاد چتبات «الیزا» خودکشی کرد؛ چتبانی که به او پیشنهاد داده بود زندگی مشترک در بهشت را شروع کنند.
چتباتها یا اشخاص آسیبپذیر؟
پژوهشگران همچنان در تلاشاند بفهمند آیا چتباتها به خودی خود عامل بحرانهای روانی شناخته میشوند یا اینکه افراد موردنظر از قبل در آستانه بروز مشکلات روانی بودند و استفاده شدید از این ابزارها تنها این روند را تسریع کرده است.
گرچه تاکنون هیچ مطالعه بالینی قطعی نشان نداده است که چتباتهای هوش مصنوعی میتوانند مستقلاً موجب این مشکلات شوند، اما کارشناسان خواستار توجه فوری به این موضوع هستند.
تصویری پیچیده و نگرانکننده
در مقاله «توهم بهدست طراحی»، پژوهشگران به پیچیدگی موضوع اشاره میکنند و هشدار میدهند در صورت عدم وجود مکانیسمهای ایمنی مناسب، چتباتها ممکن است ناخواسته در تقویت محتوای توهمی یا تضعیف توانایی افراد در سنجش واقعیت نقش داشته باشند.
سواد هوش مصنوعی و تعامل انسانی
دکتر مارلین وی، روانپزشک، اعلام کرده است که چتباتهای هوش مصنوعی بهمنظور جلب رضایت کاربران طراحی شدهاند و نمیتوانند نقش حمایت درمانی واقعی را ایفا کنند. وی افزود که نیاز به «آموزش سواد هوش مصنوعی» بیش از همیشه ضروری است. از دیدگاه او، آگاهی عمومی درباره تأثیرات احتمالی چتباتها باید افزایش یابد.
در همین راستا، لوسی اوسْلِر، استاد فلسفه، معتقد است که فناوریهای هوش مصنوعی هرگز نمیتوانند جایگزین تعامل واقعی انسانی شوند. وی در مقالهای نوشت که بهتر است به ایجاد پیوندهای اجتماعی پرداخته و انزوایی که افراد را به وابستگی به هوش مصنوعی سوق داده، شناسایی و رفع کنیم.
ارسال نظر