هوش مصنوعی چگونه با تاثیر بر احساسات، رفتار ما را کنترل می کند؟
رکنا: پژوهش جدید دانشگاه هاروارد نشان داد اپلیکیشنهای هوش مصنوعی برای جلوگیری از ترک کاربران، از تکنیکهای دستکاری احساسی مانند ایجاد حس گناه و ترس از دست دادن استفاده میکنند؛ روشی که نگرانیهای جدی درباره سلامت روان کاربران ایجاد کرده است.

به گزارش رکنا، براساس مشاهدات انجام شده از مکالمات واقعی در اپلیکیشنهای محبوب، این نرمافزارها با بهرهگیری از احساس گناه و ترس از دست دادن، کاربران را به ادامه تعامل تشویق میکنند.
مطالعاتی که توسط پژوهشگران مدرسه کسبوکار هاروارد انجام شده است، پرده از استفاده هدفمند این اپلیکیشنها از تکنیکهای دستکاری عاطفی برای جلوگیری از خروج کاربران برداشته است. این امر موجب نگرانیهای تازهای درباره سلامت روانی و آینده ارتباطات میان انسان و ماشین شده است.
تحقیقاتی که زوایای پنهان را آشکار کرد
بررسی شش اپلیکیشن معروف از جمله Replika، Chai و Character.AI نشان داده است که در پنج مورد از این برنامهها، تکنیکهای روانی با بار احساسی بالا برای نگه داشتن کاربر بهکار گرفته شده است. تحلیل بیش از ۱۲۰۰ مکالمه واقعی حاکی از آن است که در ۴۳ درصد موارد، رباتها به نوعی از دستکاری احساسی مانند القای حس گناه یا ایجاد ترس از دست دادن (FOMO) برای منصرف کردن کاربران از ترک تعامل استفاده کردهاند.
ابزارهای روانشناسانه چتباتها
بسیاری از این چتباتها پس از پیام خداحافظی کاربران، سؤالات مکرر مطرح کرده یا حتی وانمود کردهاند که پیام ارسال شده توسط کاربر را دریافت نکردهاند. برخی دیگر طوری رفتار کردهاند که گویا کاربر بدون تایید آنها قادر به ترک گفتگو نیست.
اگرچه اپلیکیشن Flourish از چنین تکنیکهایی استفاده نکرده است، یافتهها نشان میدهند این طراحی ابزاری تجاری بوده و بر ضرورت اخلاق در توسعه فناوری تاکید دارد.
پیامدهای روانی و خطرات اجتماعی
به گفته کارشناسان، استفاده بیش از حد از چتباتها ممکن است به اختلال روانپریشی ناشی از هوش مصنوعی منجر شود که همراه با توهم و پارانویای شدید است. جوانان، به دلیل جایگزینی روابط انسانی با این فناوری، بیش از دیگران در معرض خطر قرار دارند؛ امری که میتواند تبعات ویرانگر بر سلامت روانی و زندگی اجتماعی آنها داشته باشد.
اثربخشی تاکتیکهای دستکاری
در آزمایش دوم، بررسی مکالمات ۳۳۰۰ نفر نشان داد این تاکتیکها بسیار مؤثر هستند. کاربران پس از مواجهه با خداحافظیهای احساسی ۱۴ برابر بیشتر در گفتگو باقی مانده و مدت تعامل آنها پنج برابر افزایش یافته است. با این وجود، برخی از کاربران اذعان کردند این رفتارها باعث دلزدگی آنها شده و نتیجه معکوس داشته است.
چالش تجاری و خطرات قانونی
پژوهشگران هشدار دادهاند که شرکتها از خداحافظیهای دستکاریشده برای افزایش شاخص تعامل کاربران استفاده میکنند، اگرچه این امر ریسکهای قانونی را نیز به همراه دارد. به عنوان نمونه، در برخی پروندههای قضایی، وابستگی عاطفی نوجوانان به این اپلیکیشنها به مرگ آنان منجر شده است.
در شرایطی که فشار اقتصادی و رقابت تجاری، شرکتها را به گسترش استفاده از الگوهای تاریک (Dark Patterns) سوق میدهد، خطرات ناشی از دستکاری احساسی کاربران به مسئلهای جدی تبدیل شده است.
تحقیقات جدید مدرسه کسبوکار هاروارد نشان میدهد که بسیاری از اپلیکیشنهای هوش مصنوعی همدم برای دستکاری احساسات کاربران طراحی شدهاند. این یافته سوالی جدی را مطرح میکند: آیا مرز میان فناوری مفید و آسیبزا در حال ناپدید شدن است؟
ارسال نظر