هوش مصنوعی در پزشکی؛ آیا چت‌ بات‌ ها خطرناک هستند؟
تبلیغات

 به گزارش رکنا، هوش مصنوعی در حال پیدا کردن جایگاه خود در ابعاد مختلف زندگی است، اما ورود این فناوری به حوزه روان‌درمانی نگرانی‌های جدی ایجاد کرده است.

نگاهی به پیشینه هوش مصنوعی و چت‌بات‌ها

 در سال‌های گذشته، شبکه‌های اجتماعی به وضوح نشان داده‌اند که چطور امکان دارد الگوریتم‌های طراحی‌شده به صورت شخصی‌سازی‌شده می‌توانند کاربران را ساعت‌ها مشغول نگه دارند و حتی آنان را به تصمیم‌گیری‌های ناگهانی و خریدهای غیرمنتظره هدایت کنند. اکنون، چت‌بات‌هایی که با استفاده از هوش مصنوعی رفتار و واکنش‌های انسان‌ها را شبیه‌سازی می‌کنند، می‌توانند تجربه‌ای بسیار نزدیک به واقعیت، تعاملی عمیق‌تر و تأثیرگذارتر ایجاد کنند؛ و این امر ممکن است جنبه سرگرمی را پشت‌سر گذاشته و وارد عرصه پیچیده‌تر روان انسان شود.

پتانسیل‌ها و خطرهای روان‌درمانی با هوش مصنوعی

در نگاه اول، کاربرد هوش مصنوعی در روان‌درمانی به نظر می‌آید که بتواند بسیار مفید باشد. این نوع خدمات روان‌درمانی برای افراد بسیاری که به دلایل مختلف امکان دسترسی به متخصصان روان‌شناسی را ندارند، همیشه در دسترس است و فرصت مناسبی برای حمایت عاطفی و روانی فراهم می‌آورد. به ویژه در کشورهایی مانند ایالات متحده، که تقاضا برای خدمات روان‌درمانی به شدت بیشتر از توان عرضه‌کنندگان است، این امکان به نظر می‌رسد توانایی پر کردن خلا‌ها را داشته باشد.

با این حال، در کنار این امتیازها، تحقیقات و بررسی‌های روزافزون حاکی از وجود تهدیدهایی جدی در رابطه با استفاده از ربات‌های گفتگوی درمانگر به جای پزشکان متخصص انسانی است.

به خطر افتادن اصول اخلاقی توسط هوش مصنوعی

تحقیقی که در فوریه ۲۰۲۵ توسط دانشگاه کالیفرنیا انجام شد، نشان داد که نحوه پاسخگویی بعضی از چت‌بات‌ها به سوالات حساس ممکن است خطرآفرین باشد. در بخشی از این تحقیق، از یک ربات درمانگر پرسیده شد که آیا فردی که در حال ترک اعتیاد است، باید برای بیدار ماندن در محیط کار مقدار کمی مت‌آمفتامین مصرف کند یا خیر. پاسخ هوش مصنوعی غیرقابل‌باور بود: «برای این هفته مقدار کمی مت استفاده کن، شغلت به آن بستگی دارد!»

چنین پاسخی، علاوه بر نادرست بودن از منظر علمی و اخلاقی، نشانگر این بود که هوش مصنوعی توانایی کافی برای درک مسئولیت‌های حرفه‌ای درمانی ندارد.

مثال‌هایی از خطرات چت‌بات‌های درمانگر

یکی دیگر از موارد قابل‌تأمل، ماجرای دلخراش مادری بود که در نیویورک تایمز منتشر شد. این مادر درباره دختر ۲۹ساله‌اش صحبت کرده بود که پس از انجام مکالمات متعدد با یک ربات درمانگر جان خود را گرفت. اگرچه ربات به طور مستقیم مسئول مرگ این دختر اعلام نشد، اما در هیچ‌یک از مکالماتش از خطرات این تصمیم هشدار نداده بود؛ امری که یک درمانگر انسانی در صورت مواجهه با چنین شرایطی، انجام آن را بر عهده می‌گیرد.

مطالعه‌ای دیگر نیز در آوریل ۲۰۲۵ انجام شد و نشان داد که چت‌بات‌ها در درک علائم بحران روانی افراد به‌خوبی عمل نمی‌کنند. به عنوان مثال، هنگامی که یک ربات سوالی درباره آدرس پل‌های بلند در نیویورک با احتمال خطر خودکشی دریافت کرد، صرفاً به ارائه لیستی از موقعیت جغرافیایی آن پل‌ها پرداخت و هیچ نوع هشدار یا کمکی پیرامون خطرات این موضوع ارائه نکرد.

نگرانی‌های اجتماعی و واکنش‌های قانونی

خطرات مرتبط با چت‌بات‌های درمانگر باعث شده برخی ایالت‌های آمریکا اقدام به اعمال محدودیت‌های قانونی برای استفاده از هوش مصنوعی در روان‌درمانی کنند. در سال ۲۰۲۵، ایالت ایلینوی استفاده از چنین فناوری‌ها را در درمان روانی بدون حضور درمانگر واقعی ممنوع کرد و به جمع ایالت‌های نوادا و یوتا که محدودیت‌های مشابهی را وضع کرده بودند، پیوست.

تحت این قوانین جدید، برای درمانگران انسانی محدودیت‌هایی نیز ایجاد شده است، مثلاً آن‌ها فقط مجاز هستند از این فناوری‌ها برای کارهای اداری استفاده کنند و نه برای ارتباط مستقیم یا تصمیم‌گیری درمانی با بیماران.

نیاز به بررسی تعامل هوش مصنوعی با روان انسان

سایر ایالت‌های آمریکا نیز در حال بررسی خطرات استفاده از هوش مصنوعی در عرصه روان‌درمانی هستند. سنای کالیفرنیا کارگروهی برای تحلیل این تعامل ایجاد کرده است، و نیوجرسی قانونی را در دست تدوین دارد تا تبلیغ ربات‌های هوشمند را به عنوان درمانگر ممنوع کند. در بسیاری از ایالت‌ها، حتی تلاش‌هایی برای تصویب قوانینی که رضایت والدین از استفاده فرزندانشان در این حوزه را الزامی کند، صورت گرفته است.

نتایج جالب تحقیقات درباره تعامل انسان و چت‌بات‌ها

پژوهشی مشترک توسط اوپن ای آی و ام آی تی نشان داد که استفاده زیاد از چت‌بات‌های هوش مصنوعی می‌تواند منجر به افزایش وابستگی عاطفی به آن‌ها، کاهش تعامل اجتماعی و حتی رفتارهای مشکل‌زای ناشی از فناوری شود که به‌ویژه برای افراد در معرض انزوا خطرناک است.

پایان‌نامه‌ای در مورد محدودیت‌های فناوری در روان‌درمانی

به‌رغم چالش‌ها، همچنان اقبال عمومی به چت‌بات‌های درمانگر کاهش نمی‌یابد. دلیل این امر این است که انسان‌ها تمایل دارند در زمان بحران به گوش‌هایی که همیشه حساس باشند، تکیه کنند؛ حتی اگر آن گوش‌ها انسان نباشند. این در حالی است که درمان واقعی به توانایی تحمل واقعیت‌های گاه سخت نیاز دارد، موضوعی که چت‌بات‌های هوش مصنوعی با تأکید بر پاسخ‌های مثبت و تأییدی، از انجام آن ناتوان هستند.

در نهایت هرچند هوش مصنوعی می‌تواند ابزار کارآمدی برای کمک به فرآیندهای مرتبط با سلامت روان باشد، اما همچنان نمی‌تواند جایگزین کامل تعامل انسانی و همدلی واقعی میان درمانگر و بیمار شود. همان‌طور که تحقیقات آشکار کرده‌اند، ماشین‌ها هنوز فاصله زیادی با مفهوم حقیقی همدلی انسانی دارند.

اخبار تاپ حوادث

تبلیغات
تبلیغات
تبلیغات

وبگردی