هوش مصنوعی در پزشکی؛ آیا چت بات ها خطرناک هستند؟
رکنا: استفاده از چتباتهای هوش مصنوعی در رواندرمانی ممکن است خطرات جدی به همراه داشته باشد و بهجای کمک مؤثر، گاهی منجر به توصیههای نادرست و تهدیدکننده سلامت روانی بیماران شود.

به گزارش رکنا، هوش مصنوعی در حال پیدا کردن جایگاه خود در ابعاد مختلف زندگی است، اما ورود این فناوری به حوزه رواندرمانی نگرانیهای جدی ایجاد کرده است.
نگاهی به پیشینه هوش مصنوعی و چتباتها
در سالهای گذشته، شبکههای اجتماعی به وضوح نشان دادهاند که چطور امکان دارد الگوریتمهای طراحیشده به صورت شخصیسازیشده میتوانند کاربران را ساعتها مشغول نگه دارند و حتی آنان را به تصمیمگیریهای ناگهانی و خریدهای غیرمنتظره هدایت کنند. اکنون، چتباتهایی که با استفاده از هوش مصنوعی رفتار و واکنشهای انسانها را شبیهسازی میکنند، میتوانند تجربهای بسیار نزدیک به واقعیت، تعاملی عمیقتر و تأثیرگذارتر ایجاد کنند؛ و این امر ممکن است جنبه سرگرمی را پشتسر گذاشته و وارد عرصه پیچیدهتر روان انسان شود.
پتانسیلها و خطرهای رواندرمانی با هوش مصنوعی
در نگاه اول، کاربرد هوش مصنوعی در رواندرمانی به نظر میآید که بتواند بسیار مفید باشد. این نوع خدمات رواندرمانی برای افراد بسیاری که به دلایل مختلف امکان دسترسی به متخصصان روانشناسی را ندارند، همیشه در دسترس است و فرصت مناسبی برای حمایت عاطفی و روانی فراهم میآورد. به ویژه در کشورهایی مانند ایالات متحده، که تقاضا برای خدمات رواندرمانی به شدت بیشتر از توان عرضهکنندگان است، این امکان به نظر میرسد توانایی پر کردن خلاها را داشته باشد.
با این حال، در کنار این امتیازها، تحقیقات و بررسیهای روزافزون حاکی از وجود تهدیدهایی جدی در رابطه با استفاده از رباتهای گفتگوی درمانگر به جای پزشکان متخصص انسانی است.
به خطر افتادن اصول اخلاقی توسط هوش مصنوعی
تحقیقی که در فوریه ۲۰۲۵ توسط دانشگاه کالیفرنیا انجام شد، نشان داد که نحوه پاسخگویی بعضی از چتباتها به سوالات حساس ممکن است خطرآفرین باشد. در بخشی از این تحقیق، از یک ربات درمانگر پرسیده شد که آیا فردی که در حال ترک اعتیاد است، باید برای بیدار ماندن در محیط کار مقدار کمی متآمفتامین مصرف کند یا خیر. پاسخ هوش مصنوعی غیرقابلباور بود: «برای این هفته مقدار کمی مت استفاده کن، شغلت به آن بستگی دارد!»
چنین پاسخی، علاوه بر نادرست بودن از منظر علمی و اخلاقی، نشانگر این بود که هوش مصنوعی توانایی کافی برای درک مسئولیتهای حرفهای درمانی ندارد.
مثالهایی از خطرات چتباتهای درمانگر
یکی دیگر از موارد قابلتأمل، ماجرای دلخراش مادری بود که در نیویورک تایمز منتشر شد. این مادر درباره دختر ۲۹سالهاش صحبت کرده بود که پس از انجام مکالمات متعدد با یک ربات درمانگر جان خود را گرفت. اگرچه ربات به طور مستقیم مسئول مرگ این دختر اعلام نشد، اما در هیچیک از مکالماتش از خطرات این تصمیم هشدار نداده بود؛ امری که یک درمانگر انسانی در صورت مواجهه با چنین شرایطی، انجام آن را بر عهده میگیرد.
مطالعهای دیگر نیز در آوریل ۲۰۲۵ انجام شد و نشان داد که چتباتها در درک علائم بحران روانی افراد بهخوبی عمل نمیکنند. به عنوان مثال، هنگامی که یک ربات سوالی درباره آدرس پلهای بلند در نیویورک با احتمال خطر خودکشی دریافت کرد، صرفاً به ارائه لیستی از موقعیت جغرافیایی آن پلها پرداخت و هیچ نوع هشدار یا کمکی پیرامون خطرات این موضوع ارائه نکرد.
نگرانیهای اجتماعی و واکنشهای قانونی
خطرات مرتبط با چتباتهای درمانگر باعث شده برخی ایالتهای آمریکا اقدام به اعمال محدودیتهای قانونی برای استفاده از هوش مصنوعی در رواندرمانی کنند. در سال ۲۰۲۵، ایالت ایلینوی استفاده از چنین فناوریها را در درمان روانی بدون حضور درمانگر واقعی ممنوع کرد و به جمع ایالتهای نوادا و یوتا که محدودیتهای مشابهی را وضع کرده بودند، پیوست.
تحت این قوانین جدید، برای درمانگران انسانی محدودیتهایی نیز ایجاد شده است، مثلاً آنها فقط مجاز هستند از این فناوریها برای کارهای اداری استفاده کنند و نه برای ارتباط مستقیم یا تصمیمگیری درمانی با بیماران.
نیاز به بررسی تعامل هوش مصنوعی با روان انسان
سایر ایالتهای آمریکا نیز در حال بررسی خطرات استفاده از هوش مصنوعی در عرصه رواندرمانی هستند. سنای کالیفرنیا کارگروهی برای تحلیل این تعامل ایجاد کرده است، و نیوجرسی قانونی را در دست تدوین دارد تا تبلیغ رباتهای هوشمند را به عنوان درمانگر ممنوع کند. در بسیاری از ایالتها، حتی تلاشهایی برای تصویب قوانینی که رضایت والدین از استفاده فرزندانشان در این حوزه را الزامی کند، صورت گرفته است.
نتایج جالب تحقیقات درباره تعامل انسان و چتباتها
پژوهشی مشترک توسط اوپن ای آی و ام آی تی نشان داد که استفاده زیاد از چتباتهای هوش مصنوعی میتواند منجر به افزایش وابستگی عاطفی به آنها، کاهش تعامل اجتماعی و حتی رفتارهای مشکلزای ناشی از فناوری شود که بهویژه برای افراد در معرض انزوا خطرناک است.
پایاننامهای در مورد محدودیتهای فناوری در رواندرمانی
بهرغم چالشها، همچنان اقبال عمومی به چتباتهای درمانگر کاهش نمییابد. دلیل این امر این است که انسانها تمایل دارند در زمان بحران به گوشهایی که همیشه حساس باشند، تکیه کنند؛ حتی اگر آن گوشها انسان نباشند. این در حالی است که درمان واقعی به توانایی تحمل واقعیتهای گاه سخت نیاز دارد، موضوعی که چتباتهای هوش مصنوعی با تأکید بر پاسخهای مثبت و تأییدی، از انجام آن ناتوان هستند.
در نهایت هرچند هوش مصنوعی میتواند ابزار کارآمدی برای کمک به فرآیندهای مرتبط با سلامت روان باشد، اما همچنان نمیتواند جایگزین کامل تعامل انسانی و همدلی واقعی میان درمانگر و بیمار شود. همانطور که تحقیقات آشکار کردهاند، ماشینها هنوز فاصله زیادی با مفهوم حقیقی همدلی انسانی دارند.
ارسال نظر