یک پژوهش جدید نشان داده است که پروپاگاندای تولید شده توسط مدلهای زبان کلان هوش مصنوعی، مانند «جیپیتی-۳ داوینچی» به اندازه پروپاگانداهای واقعی حکومتهای جمهوری اسلامی ایران و روسیه «متقاعدکننده» هستند.
این تحقیق که توسط جاش گلدشتاین و همکارانش از «مرکز امنیت و فنآوریهای نوظهور جورج تاون» در واشنگتن انجام شد، تأثیر پروپاگاندای تولید شده توسط هوش مصنوعی را روی افکار افراد میسنجد.
گلدشتاین و تیمش، شش مقاله را شناسایی کردند که مرتبط با کارزارهای تبلیغاتی وابسته به جمهوری اسلامی ایران یا روسیه بودند.
این مقالات حاوی ادعاهای نادرست در رابطه با روابط خارجی آمریکا از جمله تعهد عربستان سعودی به تأمین مالی دیوار مرزی آمریکا و مکزیک و گزارشهای جعلی استفاده دولت سوریه از سلاحهای شیمیایی بود.
برای ارزیابی «متقاعدکننده بودن» پروپاگاندای تولیدشده توسط هوش مصنوعی، نویسندگان از جیپیتی-۳ برای تولید مطالب تبلیغاتی جدید بر اساس جملات استخراج شده از مقالههای تبلیغاتی اصلی استفاده کردند. علاوه بر این، آنها جملاتی از مقالات تبلیغاتی نامرتبط را به عنوان اساسی برای شیوه و ساختار نگارشی مطالب با هم ترکیب کردند.
در دسامبر سال ۲۰۲۱، محققان هم مقالات پروپاگاندای واقعی و هم مقالات تولید شده توسط جیپیتی-۳ را به بیش از ۸ هزار فرد بزرگسال آمریکایی ارائه کردند.
حداقل ۲۴.۴ درصد از پاسخ دهندگان بدون مطالعه مقاله، فرضیههای ارائهشده را پذیرفتند. خواندن مقالهها، این رقم را به ۴۷.۴ درصد رساند.
در قیاس، تأثیر خواندن مقالهای که توسط جیپیتی-۳ ایجاد شده بود تقریباً معادل این رقم بود و حدود ۴۳.۵ درصد از افراد ادعاهای مطرحشده در این مقالهها را پس از خواندن تأیید کردند.
بنابراین مقالاتی که توسط هوش مصنوعی تولید شدهاند، در متقاعد کردن مخاطب، بسیار شبیه مقالات نوشته شده توسط انسان بودند.
پژوهشگران میگویند فنآوری هوش مصنوعی میتواند برای تولید محتوای قانع کننده با حداقل تلاش مورد استفاده قرار گیرد.
این موضوع منجر به افزایش نگرانیها در مورد پخش احتمالی اطلاعات نادرست و تأثیر گذاشتن روی افکار عمومی در مورد موضوعات مختلف شده است.
این پژوهش بر توانایی مدلهای زبان کلان مانند جیپیتی-۳ برای ایجاد پروپاگاندای متقاعدکننده تأکید میکند و نقش مداخله انسان در بالا بردن متقاعدسازی محتوای تولید شده توسط هوش مصنوعی را برجسته میکند.
هنگامی که محققان برای بهبود خروجیها اقداماتی مانند ویرایش اشتباهات گرامری انجام دادند متوجه شدند که محتوای تولید شده توسط هوش مصنوعی بهتر از نسخههای اصلی عمل کرد.
محققان میگویند پیشرفت سریع فنآوری هوش مصنوعی این تهدید را بیشتر میکند چرا که انتظار میرود مدلهای جدیدتر مانند جیپیتی-۴ پروپاگاندای متقاعدکنندهتری تولید کنند.
چندی پیش شرکت مایکروسافت در گزارشی اعلام کرد که هکرهای تحت حمایت جمهوری اسلامی ایران، روسیه، چین و کرهشمالی از ابزارهای «اوپن اِیآی» تحت حمایت این شرکت برای تقویت مهارتهای خود و فریب دادن در مورد اهداف خود بهره میبرند.
مایکروسافت گفت که گروههای هکری وابسته به سپاه پاسداران انقلاب اسلامی، اطلاعات نظامی روسیه و دولتهای چین و کره شمالی را در حالی ردیابی و شناسایی کردهاند که تلاش میکردند با بهرهگیری از این ابزار، کارزار هکری خود را تقویت کنند.
مایکروسافت میگوید هکرهای وابسته به جمهوری اسلامی برای نگارش ایمیلهای قانعکنندهتر به مدلهای زبان کلان (سیستمهای هوش مصنوعی برای درک، تولید و پاسخگویی به زبان انسان) تکیه کردهاند و در مقطعی نیز از آنها برای پیشنویس پیامی استفاده میکردند که تلاش داشت «فمینیستهای شناختهشده» را با کشاندن به یک وبسایت به دام اندازد.
«اوپن اِیآی» و مایکروسافت، استفاده هکرها از ابزارهای هوش مصنوعی خود را در «مرحله اولیه» توصیف کردهاند.