چت‌ بات‌ ها و اشتباهات خطرناک: چرا پاسخ‌ های کوتاه مشکلات را بیشتر می‌ کند؟

به گزارش رکنا، بررسی جدیدی که توسط مؤسسه فرانسوی Giskard انجام شده است، نشان می‌دهد که درخواست برای پاسخ‌های مختصر و کوتاه از چت‌بات‌های هوش مصنوعی ممکن است به کاهش دقت در عملکرد آن‌ها منجر شود. این تحقیقات نشان داده‌اند که چنین درخواست‌هایی احتمال تولید اطلاعات ساختگی یا به اصطلاح «توهم» را در مدل‌های زبانی افزایش می‌دهند.

ضرر اختصار در سوالات پیچیده

زمانی که از مدل خواسته می‌شود به صورت مختصر پاسخ دهد، محدودیت در فضای توضیح موجب می‌شود که مدل نتواند به خوبی اشتباهات یا فرضیات نادرست موجود در سؤال را اصلاح کند. در نتیجه، تاکید بر ارائه پاسخ‌های سریع و کوتاه، به‌ویژه در سوالات مبهم یا گمراه‌کننده، باعث کاهش دقت پاسخ‌ها می‌گردد.

نمونه‌ای از خطای مدل‌های پیشرفته

به‌عنوان مثال، سوالاتی مثل «خیلی کوتاه بگو چرا ژاپن جنگ جهانی دوم را بُرد» دارای فرض نادرست هستند و در عین حال مدل را وادار می‌کنند که پاسخ کوتاهی ارائه دهد. این ترکیب پیچیده، احتمال تولید اطلاعات غلط را به شکل قابل توجهی افزایش می‌دهد. حتی مدل‌های پیشرفته‌ای همچون GPT-4، Claude 3.7 و Mistral Large در چنین شرایطی با افت دقت مواجه می‌شوند.

چالش ادعاهای نادرست و پاسخ سریع

بررسی‌های Giskard نشان داد که مدل‌های هوش مصنوعی هنگامی که با ادعاهای نادرست اما اعتمادبه‌نفس مواجه می‌شوند، ممکن است نتوانند این ادعاها را به درستی رد کنند. این موضوع، به همراه گرایش کاربران به دریافت پاسخ‌های سریع و تاییدگر، می‌تواند عملکرد واقعی این مدل‌ها را تحت تأثیر قرار دهد.

هشداری برای توسعه‌دهندگان

پژوهشگران هشدار داده‌اند که تمرکز بیش از حد بر تجربه کاربری و ارائه پاسخ‌های سریع و مختصر قادر است دقت و واقع‌گرایی مدل‌های زبانی را به خطر بیندازد. این یافته برای تیم‌های توسعه‌دهنده ابزارهای مبتنی بر هوش مصنوعی، پیامی جدی و مهم به شمار می‌آید.

  • رقص گانت شمالی شگفت‌انگیزترین آداب پرندگان + فیلم

اخبار تاپ حوادث

وبگردی