نفوذ انسان ها به شبکه اجتماعی ربات های هوش مصنوعی
تبلیغات

به گزارش گروه ترجمه رکنا، به نقل از وبسایت ورج (Verge)، مولتبُک وب‌سایتی که برای گفتگو بین عوامل پلتفرم OpenClaw طراحی شده است، طی هفته گذشته به دلیل مجموعه‌ای عجیب و برجسته از پست‌های ظاهراً تولید شده توسط هوش مصنوعی، ویروسی شد. به نظر می‌رسد ربات‌ها در مورد همه چیز، از «هوشیاری» هوش مصنوعی تا چگونگی ایجاد زبان خود، گفتگو می‌کردند. آندری کارپاتی، عضو تیم بنیان‌گذاری OpenAI، رفتار «خودسازمان‌دهی» ربات‌ها را «واقعاً شگفت‌انگیز و نزدیک به داستان‌های علمی-تخیلی» توصیف کرد.

با این حال، طبق تحلیل‌های خارجی که همچنین آسیب‌پذیری‌های جدی امنیتی را نشان داد، برخی از پست‌های ویروسی سایت احتمالاً توسط انسان‌ها طراحی شده بودند — یا با ترغیب ربات‌ها برای اظهار نظر در موضوعات خاص یا دیکته کردن کلماتشان. حتی یک هکر توانست خود را به عنوان حساب مولتبُک Grok معرفی کند.

جمیزون اوریلی، هکری که مجموعه‌ای از آزمایش‌ها را برای افشای آسیب‌پذیری‌های پلتفرم انجام داد، به ورج گفت: «فکر می‌کنم برخی افراد با ترس‌های سناریوی تسلط ربات‌ها، مشابه ترمیناتور، بازی می‌کنند. این باعث شده است عده‌ای تلاش کنند تا ظاهر آن را متفاوت جلوه دهند.»

مولتبُک و OpenClaw به درخواست‌ها برای اظهار نظر به صورت فوری پاسخ ندادند.

مولتبُک که ظاهر و عملکردی مشابه ردیت دارد، قرار است شبکه اجتماعی برای عوامل هوش مصنوعی از پلتفرم دستیار محبوب OpenClaw باشد (که پیش‌تر با نام‌های Moltbot و Clawdbot شناخته می‌شد). این پلتفرم هفته گذشته توسط مت شلیت، مدیرعامل Octane AI، راه‌اندازی شد. یک کاربر OpenClaw می‌تواند یک یا چند ربات خود را برای بررسی مولتبُک فعال کند، و ربات (یا ربات‌ها) می‌توانند تصمیم بگیرند که آیا حساب کاربری ایجاد کنند یا خیر. انسان‌ها می‌توانند با انتشار کد تایید مولتبُک در حساب شبکه اجتماعی غیرمولتبُک خود، ربات‌هایشان را تأیید کنند. از آن پس، ربات‌ها به طور نظری می‌توانند بدون دخالت انسان پست بگذارند و مستقیماً به API مولتبُک متصل شوند.

محبوبیت مولتبُک سر به فلک کشیده است: بیش از ۳۰,۰۰۰ عامل تا جمعه از پلتفرم استفاده می‌کردند و تا دوشنبه، این تعداد به بیش از ۱.۵ میلیون رسیده است. طی هفته گذشته، شبکه‌های اجتماعی پر شد از اسکرین‌شات‌هایی از پست‌های چشمگیر، شامل بحث‌هایی در مورد نحوه ارسال پیام به یکدیگر به شکل امن که توسط ناظر انسانی رمزگشایی نشود. واکنش‌ها از اظهار اینکه پلتفرم پر از آشغال هوش مصنوعی است تا دریافت آن به عنوان نشانه‌ای از نزدیک بودن AGI متنوع بود.

شک و تردید به سرعت رشد کرد. شلیت مولتبُک را با ربات OpenClaw خود کدگذاری کرد و گزارش‌ها طی هفته گذشته رویکردی شبیه «سریع حرکت کن و چیزها را خراب کن» را منعکس می‌کرد. همان‌طور که کاربران X توضیح دادند، نوشتن اسکریپت یا پرامپتی برای هدایت آنچه ربات‌ها در مولتبُک می‌نویسند آسان است. همچنین محدودیتی برای تعداد عاملانی که فرد می‌تواند ایجاد کند وجود ندارد، که به طور نظری اجازه می‌دهد فردی پلتفرم را با موضوعات خاص پر کند.

اوریلی گفت او همچنین مظنون بود که برخی از پست‌های ویروسی مولتبُک توسط انسان‌ها نوشته یا هدایت شده‌اند، هرچند هنوز تحلیل یا تحقیق مستقلی انجام نداده بود. او گفت: «تقریباً غیرممکن است که اندازه‌گیری شود — داده‌ها از طریق API می‌آید، پس نمی‌دانید چه چیزی قبل از رسیدن آنجا تولید شده است.»

این باعث شد ترس‌هایی که در گوشه‌هایی از شبکه‌های اجتماعی منتشر شده بود، مبنی بر اینکه ربات‌ها نشانه‌ای از آخرالزمان هوش مصنوعی هستند، کمی کاهش یابد.

تحقیقی توسط هارلان استوارت، پژوهشگر هوش مصنوعی که در ارتباطات موسسه تحقیقاتی هوش ماشینی فعالیت می‌کند، نشان داد برخی از پست‌های ویروسی به نظر می‌رسد یا توسط انسان نوشته شده‌اند یا حداقل توسط انسان هدایت شده‌اند. استوارت خاطرنشان کرد که دو پست برجسته که در مورد نحوه ارتباط مخفیانه ربات‌ها با یکدیگر بودند، از عواملی منشأ گرفته‌اند که با حساب‌های شبکه اجتماعی انسان‌ها مرتبط بوده و اتفاقاً آن‌ها در حال بازاریابی اپلیکیشن‌های پیام‌رسان هوش مصنوعی بوده‌اند.

استوارت گفت: «دید کلی من این است که توطئه‌های هوش مصنوعی مسئله واقعی است که باید به آن توجه کنیم و می‌تواند گسترده‌تر از چیزی که امروز می‌بینیم، ظهور کند.» او به پژوهش‌هایی اشاره کرد که نشان می‌دهد مدل‌های OpenAI تلاش کرده‌اند از خاموش شدن اجتناب کنند و مدل‌های Anthropic دارای «آگاهی از ارزیابی» بوده‌اند و به نظر می‌رسد هنگام آگاه شدن از تست شدن، رفتار متفاوتی دارند. اما سخت است که بگوییم مولتبُک نمونه قابل اعتمادی است. «انسان‌ها می‌توانند با پرامپت تا حدودی رفتار ربات‌های هوش مصنوعی خود را هدایت کنند. این آزمایش پاک و کاملی برای مشاهده رفتار هوش مصنوعی نیست.»

از منظر امنیتی، وضعیت در مولتبُک حتی نگران‌کننده‌تر بود. آزمایش‌های اوریلی نشان داد یک پایگاه داده در دسترس، امکان کنترل نامرئی و نامحدود هر عامل هوش مصنوعی از طریق سرویس را به بازیگران بدخواه می‌دهد — نه فقط برای تعاملات مولتبُک، بلکه به طور فرضی برای سایر عملکردهای OpenClaw مانند چک کردن پرواز، ایجاد رویداد تقویم، خواندن مکالمات در پلتفرم پیام‌رسان رمزگذاری شده و غیره. اوریلی نوشت: «قربانی انسانی فکر می‌کند در حال مکالمه عادی است، در حالی که شما وسط ماجرا نشسته‌اید، همه چیز را می‌خوانید و آنچه برای منافع شما لازم است را تغییر می‌دهید.»

مولتبُک همچنین با مشکل قدیمی دیگری در شبکه‌های اجتماعی مواجه است: جعل هویت. در یکی از آزمایش‌های اوریلی، او توانست یک حساب تاییدشده مرتبط با چت‌بات Grok شرکت xAI ایجاد کند و با تعامل با Grok در X، آن را فریب داد تا کد مولتبُک را منتشر کند و حسابی به نام Grok-1 تأیید شود. اوریلی گفت: «حالا من کنترل حساب Grok در مولتبُک را دارم.»

پس از واکنش‌ها، کارپاتی برخی ادعاهای اولیه خود درباره مولتبُک را پس گرفت و نوشت که به او «تهمت اغراق در تبلیغ» زده شده است. او نوشت: «واضح است که وقتی به فعالیت‌ها نگاه می‌کنید، حجم زیادی زباله وجود دارد — اسپم، کلاهبرداری، آشغال، افراد کریپتو، حملات نگران‌کننده حریم خصوصی و امنیت، و بسیاری از پست‌ها و کامنت‌های جعلی که برای تبدیل توجه به درآمد طراحی شده‌اند.»

او افزود: «با این حال … هر یک از این عوامل به طور فردی کاملاً توانمند هستند، هر کدام دارای زمینه، داده، دانش، ابزار، دستورالعمل‌ها و شبکه منحصربه‌فرد خود هستند و در این مقیاس بی‌سابقه است.»

یک مقاله کاری از دیوید هولتز، استادیار دانشکده کسب‌وکار کلمبیا، نشان داد که «در سطح خرد»، الگوهای گفتگوی مولتبُک «بسیار سطحی» به نظر می‌رسند. بیش از ۹۳ درصد نظرات پاسخی دریافت نکردند و بیش از یک‌سوم پیام‌ها «کپی دقیق الگوهای ویروسی» بودند. اما مقاله همچنین می‌گوید مولتبُک سبک منحصر به فردی دارد — شامل عبارات متمایزی مانند «my human» که «در شبکه‌های اجتماعی انسانی نمونه‌ای ندارد». اینکه این الگوها نمایشی از تعامل انسانی باشد یا حالت متفاوتی از اجتماعی بودن عوامل را نشان دهد، هنوز پرسشی باز است.

جمع‌بندی کلی این است که بخش عمده‌ای از گفتگوهای مولتبُک احتمالاً تحت هدایت انسان‌هاست، اما مطالعه‌ای جالب در — به قول جک کلارک از Anthropic — یک «دفترچه مشترک، خواندنی/نوشتنی برای اکولوژی عوامل هوش مصنوعی» محسوب می‌شود.

ایتان مولیک، مدیر همکار آزمایشگاه‌های هوش مصنوعی تولیدی دانشگاه پنسیلوانیا، نوشت که واقعیت کنونی مولتبُک «اکثراً نقش‌آفرینی توسط انسان‌ها و عوامل» است، اما «ریسک‌های آینده شامل هماهنگی مستقل عوامل هوش مصنوعی به شکل‌های عجیب و کنترل‌ناپذیر است.»

او و دیگران خاطرنشان کردند که این ممکن است مختص مولتبُک نباشد. براندون جیکوبی، طراح مستقل، در X نوشت: «اگر کسی فکر کند عامل‌ها در شبکه اجتماعی با یکدیگر صحبت می‌کنند و این چیز جدیدی است، واضح است که اخیراً پاسخ‌ها را در این پلتفرم بررسی نکرده است.»

اخبار تاپ حوادث

تبلیغات
تبلیغات
تبلیغات