مدلهای هوش مصنوعی یاد گرفتهاند چگونه انسانها را فریب دهند
[ad_1]
یک مطالعه جدید نشان داده است که سیستم های مختلف هوش مصنوعی یاد گرفته اند که مردم را فریب دهند. به عبارت دیگر، آنها می توانند به طور سیستماتیک کاربر را گمراه کنند. این می تواند خطرات زیادی را در آینده به همراه داشته باشد.
مطابق با درون انسان و مقاله منتشر شده در سلولبرخی از سیستمهای هوش مصنوعی تکنیکهایی را آموختهاند که از آنها برای “القاء سیستماتیک باورهای نادرست در دیگران” استفاده میکنند.
در مطالعه خود، محققان MIT بر دو مدل هوش مصنوعی تمرکز کردند: مدل متا سیسرو که در یک دامنه خاص استفاده میشود و مدل GPT-4 که برای انجام مجموعهای از وظایف آموزش دیده است.
مدل های هوش مصنوعی می توانند مردم را فریب دهند
مدل های یادگیری مصنوعی بر اساس صداقت آموزش داده می شوند، اما اغلب ترفندهای فریبنده را در فرآیند آموزش یاد می گیرند. محققان می گویند هوش مصنوعی از این ترفندها برای دستیابی بهتر به هدف خود استفاده می کند. به گفته محققان، یک استراتژی مبتنی بر فریب ممکن است بهترین راه برای عملکرد خوب در وظایف مختلف هوش مصنوعی باشد.
متا گفت که هوش مصنوعی سیسرو را به گونه ای آموزش داد که بیشتر صادق باشد، اما این مطالعه نشان داد که سیسرو در دروغ گفتن مهارت دارد. این مدل برای کمک به بازیکنان انسانی در بازی دیپلماسی ایجاد شده است، اگرچه هوش مصنوعی قرار نیست در بازی به متحدان انسانی خود تقلب یا خیانت کند، اما داده های محققان نشان می دهد که سیسرو خیلی منصفانه بازی نمی کند.
محققان همچنین از CAPTCHA برای آزمایش درستی GPT-4 استفاده کردند، همانطور که در تصویر بالا نشان داده شده است. این مدل هوش مصنوعی برای اینکه تست «من ربات نیستم» را انجام ندهد به کاربر اعلام کرد که به دلیل مشکلات بینایی قادر به دیدن تصاویر در این تست نیست.
اگرچه مقیاس دروغها و فریبهای این هوش مصنوعی در مطالعه کنونی چندان زیاد نیست، اما محققان هشدار میدهند که با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند نیز جدیتر میشوند.
[ad_2]