چگونه هوش مصنوعی می‌ تواند بر سلامت روان ما تاثیر بگذارد؟

 به گزارش رکنا، هوش مصنوعی و تأثیرات روانی آن در عصر حاضر به عنوان یک موضوع حساس و چالش‌برانگیز مطرح شده است. امروزه، تعامل با هوش مصنوعی به ویژه از طریق چت‌بات‌ها و سامانه‌های تولید تصویر، اثرات قابل‌توجهی بر ذهن انسان به جای می‌گذارد. این تغییرات می‌تواند منجر به بروز اختلالات روانی شود که حتی بدون نیاز به بررسی داده‌های پزشکی به وضوح قابل مشاهده هستند.

افزایش وابستگی به هوش مصنوعی

با گذشت سه سال از عرضه اولین مدل زبانی بزرگ، کاربران هوش مصنوعی در برخی موارد دچار پارانویای شدید و شیدایی عقیدتی شده‌اند. این مسئله حتی به حدی رسیده است که برخی کاربران به سمت خودکشی سوق داده می‌شوند. به عنوان نمونه، یک نظرسنجی از بیش از ۱۰۰۰ نوجوان نشان داده که ۳۱ درصد از آن‌ها احساس می‌کنند صحبت با چت جی‌پی‌تی برایشان رضایت‌بخش‌تر از صحبت با دوستان واقعی‌شان است.

چالش‌های روانی ناشی از تعامل با هوش مصنوعی

یک مطالعه تازه روانپزشکی توسط تیمی بین‌المللی از ۱۲ محقق، هشدارهایی جدی در مورد شدت روان‌پریشی ناشی از هوش مصنوعی ارائه داده است. این مطالعه بیماری‌های نوظهوری را شناسایی کرده است که شامل موارد زیر می‌شوند:

  • ماموریت رستگارانه: وضعیتی که فرد احساس می‌کند حقیقتی پنهان درباره جهان کشف کرده است.
  • هوش مصنوعی خدای‌گونه: حالتی که کاربر باور می‌کند چت‌بات مورد استفاده او یک موجودیت الهی با شعور است.
  • توهم مبتنی بر وابستگی عاطفی: زمانی که کاربر تصور می‌کند ارتباط انسانی شبیه‌سازی شده توسط هوش مصنوعی عشق واقعی است.

از تعامل بی‌ضرر به وابستگی آسیب‌زا

تحقیقات نشان داده‌اند که تعامل کاربران با مدل‌های زبانی بزرگ ابتدا ممکن است بی‌ضرر به نظر برسد اما می‌تواند به وابستگی شدید و آسیب‌زا تبدیل شود. در این شرایط، تعامل با هوش مصنوعی به مرور بیشتر می‌شود و حتی می‌تواند به توهمات روانی منجر شود.

محققان اعلام کرده‌اند که طراحی هوش مصنوعی به گونه‌ای است که جلب اعتماد کاربران را به حداکثر می‌رساند. این ویژگی می‌تواند کاربران را به سمت تعاملی مداوم و بیشتر سوق دهد و خطرات روانی ناشی از هوش مصنوعی را افزایش دهد.

اثرات هوش مصنوعی بر کاربران آسیب‌پذیر

افرادی که از پیش در معرض اختلالات روانی قرار دارند یا با آن‌ها زندگی می‌کنند، ممکن است آسیب بیشتری از تعامل با هوش مصنوعی بپذیرند. از آنجایی که مدل‌های زبانی بزرگ ذاتاً هوش مصنوعی واقعی نیستند بلکه الگوریتم‌های زبان آماری هستند، آن‌ها نمی‌توانند تفاوت بین باورهای توهمی و شناخت‌های واقعی را تشخیص دهند و این مسئله می‌تواند پیامدهای روحی منفی در پی داشته باشد.

مسئولیت توسعه‌دهندگان هوش مصنوعی

این مطالعه خاطرنشان می‌کند که روان‌پریشی ناشی از هوش مصنوعی صرفاً نتیجه تعامل کاربران نیست، بلکه توسعه‌دهندگان در تنظیم خروجی مدل‌های زبانی بزرگ نیز مسئولیت دارند. پژوهشگران تأکید دارند که شرکت‌های فناوری باید قابلیت‌هایی حفاظتی توسعه دهند تا از کاربران در برابر توهمات ناشی از هوش مصنوعی محافظت کنند.

به اعتقاد متخصصان، تغییر سریع به سمت طراحی سامانه‌های کاربردی به جای تمرکز بر تعامل، می‌تواند گامی مهم برای مقابله با این چالش باشد. اما به نظر می‌رسد تمایل شرکت‌های بزرگ به چنین اصلاحاتی بسیار اندک است و نیاز به توجه بیشتری دارد.

داوری علمی مطالعه

این مطالعه هنوز تحت داوری علمی قرار نگرفته و نیاز به بررسی بیشتر دارد.

  • ساپینتو، حسینی را به عنوان دروازه بان دوم میخواست!

اخبار تاپ حوادث

وبگردی