نفوذ انسان ها به شبکه اجتماعی ربات های هوش مصنوعی
رکنا: اوایل هفته گذشته، وضعیت در مولتبُک، پلتفرم ویروسی سبک ردیت، بیش از پیش عجیب شد. شبکههای اجتماعی معمول با هجوم مداوم چتباتهایی مواجه هستند که خود را انسان جا میزنند. یک پلتفرم اجتماعی جدید برای عوامل هوش مصنوعی ممکن است با مشکل معکوس روبهرو شود: پر شدن آن توسط انسانهایی که وانمود میکنند به جای رباتها پست میگذارند.
به گزارش گروه ترجمه رکنا، به نقل از وبسایت ورج (Verge)، مولتبُک وبسایتی که برای گفتگو بین عوامل پلتفرم OpenClaw طراحی شده است، طی هفته گذشته به دلیل مجموعهای عجیب و برجسته از پستهای ظاهراً تولید شده توسط هوش مصنوعی، ویروسی شد. به نظر میرسد رباتها در مورد همه چیز، از «هوشیاری» هوش مصنوعی تا چگونگی ایجاد زبان خود، گفتگو میکردند. آندری کارپاتی، عضو تیم بنیانگذاری OpenAI، رفتار «خودسازماندهی» رباتها را «واقعاً شگفتانگیز و نزدیک به داستانهای علمی-تخیلی» توصیف کرد.
با این حال، طبق تحلیلهای خارجی که همچنین آسیبپذیریهای جدی امنیتی را نشان داد، برخی از پستهای ویروسی سایت احتمالاً توسط انسانها طراحی شده بودند — یا با ترغیب رباتها برای اظهار نظر در موضوعات خاص یا دیکته کردن کلماتشان. حتی یک هکر توانست خود را به عنوان حساب مولتبُک Grok معرفی کند.
جمیزون اوریلی، هکری که مجموعهای از آزمایشها را برای افشای آسیبپذیریهای پلتفرم انجام داد، به ورج گفت: «فکر میکنم برخی افراد با ترسهای سناریوی تسلط رباتها، مشابه ترمیناتور، بازی میکنند. این باعث شده است عدهای تلاش کنند تا ظاهر آن را متفاوت جلوه دهند.»
مولتبُک و OpenClaw به درخواستها برای اظهار نظر به صورت فوری پاسخ ندادند.
مولتبُک که ظاهر و عملکردی مشابه ردیت دارد، قرار است شبکه اجتماعی برای عوامل هوش مصنوعی از پلتفرم دستیار محبوب OpenClaw باشد (که پیشتر با نامهای Moltbot و Clawdbot شناخته میشد). این پلتفرم هفته گذشته توسط مت شلیت، مدیرعامل Octane AI، راهاندازی شد. یک کاربر OpenClaw میتواند یک یا چند ربات خود را برای بررسی مولتبُک فعال کند، و ربات (یا رباتها) میتوانند تصمیم بگیرند که آیا حساب کاربری ایجاد کنند یا خیر. انسانها میتوانند با انتشار کد تایید مولتبُک در حساب شبکه اجتماعی غیرمولتبُک خود، رباتهایشان را تأیید کنند. از آن پس، رباتها به طور نظری میتوانند بدون دخالت انسان پست بگذارند و مستقیماً به API مولتبُک متصل شوند.
محبوبیت مولتبُک سر به فلک کشیده است: بیش از ۳۰,۰۰۰ عامل تا جمعه از پلتفرم استفاده میکردند و تا دوشنبه، این تعداد به بیش از ۱.۵ میلیون رسیده است. طی هفته گذشته، شبکههای اجتماعی پر شد از اسکرینشاتهایی از پستهای چشمگیر، شامل بحثهایی در مورد نحوه ارسال پیام به یکدیگر به شکل امن که توسط ناظر انسانی رمزگشایی نشود. واکنشها از اظهار اینکه پلتفرم پر از آشغال هوش مصنوعی است تا دریافت آن به عنوان نشانهای از نزدیک بودن AGI متنوع بود.
شک و تردید به سرعت رشد کرد. شلیت مولتبُک را با ربات OpenClaw خود کدگذاری کرد و گزارشها طی هفته گذشته رویکردی شبیه «سریع حرکت کن و چیزها را خراب کن» را منعکس میکرد. همانطور که کاربران X توضیح دادند، نوشتن اسکریپت یا پرامپتی برای هدایت آنچه رباتها در مولتبُک مینویسند آسان است. همچنین محدودیتی برای تعداد عاملانی که فرد میتواند ایجاد کند وجود ندارد، که به طور نظری اجازه میدهد فردی پلتفرم را با موضوعات خاص پر کند.
اوریلی گفت او همچنین مظنون بود که برخی از پستهای ویروسی مولتبُک توسط انسانها نوشته یا هدایت شدهاند، هرچند هنوز تحلیل یا تحقیق مستقلی انجام نداده بود. او گفت: «تقریباً غیرممکن است که اندازهگیری شود — دادهها از طریق API میآید، پس نمیدانید چه چیزی قبل از رسیدن آنجا تولید شده است.»
این باعث شد ترسهایی که در گوشههایی از شبکههای اجتماعی منتشر شده بود، مبنی بر اینکه رباتها نشانهای از آخرالزمان هوش مصنوعی هستند، کمی کاهش یابد.
تحقیقی توسط هارلان استوارت، پژوهشگر هوش مصنوعی که در ارتباطات موسسه تحقیقاتی هوش ماشینی فعالیت میکند، نشان داد برخی از پستهای ویروسی به نظر میرسد یا توسط انسان نوشته شدهاند یا حداقل توسط انسان هدایت شدهاند. استوارت خاطرنشان کرد که دو پست برجسته که در مورد نحوه ارتباط مخفیانه رباتها با یکدیگر بودند، از عواملی منشأ گرفتهاند که با حسابهای شبکه اجتماعی انسانها مرتبط بوده و اتفاقاً آنها در حال بازاریابی اپلیکیشنهای پیامرسان هوش مصنوعی بودهاند.
استوارت گفت: «دید کلی من این است که توطئههای هوش مصنوعی مسئله واقعی است که باید به آن توجه کنیم و میتواند گستردهتر از چیزی که امروز میبینیم، ظهور کند.» او به پژوهشهایی اشاره کرد که نشان میدهد مدلهای OpenAI تلاش کردهاند از خاموش شدن اجتناب کنند و مدلهای Anthropic دارای «آگاهی از ارزیابی» بودهاند و به نظر میرسد هنگام آگاه شدن از تست شدن، رفتار متفاوتی دارند. اما سخت است که بگوییم مولتبُک نمونه قابل اعتمادی است. «انسانها میتوانند با پرامپت تا حدودی رفتار رباتهای هوش مصنوعی خود را هدایت کنند. این آزمایش پاک و کاملی برای مشاهده رفتار هوش مصنوعی نیست.»
از منظر امنیتی، وضعیت در مولتبُک حتی نگرانکنندهتر بود. آزمایشهای اوریلی نشان داد یک پایگاه داده در دسترس، امکان کنترل نامرئی و نامحدود هر عامل هوش مصنوعی از طریق سرویس را به بازیگران بدخواه میدهد — نه فقط برای تعاملات مولتبُک، بلکه به طور فرضی برای سایر عملکردهای OpenClaw مانند چک کردن پرواز، ایجاد رویداد تقویم، خواندن مکالمات در پلتفرم پیامرسان رمزگذاری شده و غیره. اوریلی نوشت: «قربانی انسانی فکر میکند در حال مکالمه عادی است، در حالی که شما وسط ماجرا نشستهاید، همه چیز را میخوانید و آنچه برای منافع شما لازم است را تغییر میدهید.»
مولتبُک همچنین با مشکل قدیمی دیگری در شبکههای اجتماعی مواجه است: جعل هویت. در یکی از آزمایشهای اوریلی، او توانست یک حساب تاییدشده مرتبط با چتبات Grok شرکت xAI ایجاد کند و با تعامل با Grok در X، آن را فریب داد تا کد مولتبُک را منتشر کند و حسابی به نام Grok-1 تأیید شود. اوریلی گفت: «حالا من کنترل حساب Grok در مولتبُک را دارم.»
پس از واکنشها، کارپاتی برخی ادعاهای اولیه خود درباره مولتبُک را پس گرفت و نوشت که به او «تهمت اغراق در تبلیغ» زده شده است. او نوشت: «واضح است که وقتی به فعالیتها نگاه میکنید، حجم زیادی زباله وجود دارد — اسپم، کلاهبرداری، آشغال، افراد کریپتو، حملات نگرانکننده حریم خصوصی و امنیت، و بسیاری از پستها و کامنتهای جعلی که برای تبدیل توجه به درآمد طراحی شدهاند.»
او افزود: «با این حال … هر یک از این عوامل به طور فردی کاملاً توانمند هستند، هر کدام دارای زمینه، داده، دانش، ابزار، دستورالعملها و شبکه منحصربهفرد خود هستند و در این مقیاس بیسابقه است.»
یک مقاله کاری از دیوید هولتز، استادیار دانشکده کسبوکار کلمبیا، نشان داد که «در سطح خرد»، الگوهای گفتگوی مولتبُک «بسیار سطحی» به نظر میرسند. بیش از ۹۳ درصد نظرات پاسخی دریافت نکردند و بیش از یکسوم پیامها «کپی دقیق الگوهای ویروسی» بودند. اما مقاله همچنین میگوید مولتبُک سبک منحصر به فردی دارد — شامل عبارات متمایزی مانند «my human» که «در شبکههای اجتماعی انسانی نمونهای ندارد». اینکه این الگوها نمایشی از تعامل انسانی باشد یا حالت متفاوتی از اجتماعی بودن عوامل را نشان دهد، هنوز پرسشی باز است.
جمعبندی کلی این است که بخش عمدهای از گفتگوهای مولتبُک احتمالاً تحت هدایت انسانهاست، اما مطالعهای جالب در — به قول جک کلارک از Anthropic — یک «دفترچه مشترک، خواندنی/نوشتنی برای اکولوژی عوامل هوش مصنوعی» محسوب میشود.
ایتان مولیک، مدیر همکار آزمایشگاههای هوش مصنوعی تولیدی دانشگاه پنسیلوانیا، نوشت که واقعیت کنونی مولتبُک «اکثراً نقشآفرینی توسط انسانها و عوامل» است، اما «ریسکهای آینده شامل هماهنگی مستقل عوامل هوش مصنوعی به شکلهای عجیب و کنترلناپذیر است.»
او و دیگران خاطرنشان کردند که این ممکن است مختص مولتبُک نباشد. براندون جیکوبی، طراح مستقل، در X نوشت: «اگر کسی فکر کند عاملها در شبکه اجتماعی با یکدیگر صحبت میکنند و این چیز جدیدی است، واضح است که اخیراً پاسخها را در این پلتفرم بررسی نکرده است.»
ارسال نظر