یك تحقیق جدید فاش كرد؛

هوش مصنوعی تقلب را یاد گرفت!

هوش مصنوعی تقلب را یاد گرفت!

ایت بال: تحقیقی جدید حاکی از آنست که سیستم های هوش مصنوعی برخلاف تصورات می توانند فریبکارانه عمل کنند و انسان ها را گول بزنند.


به گزارش ایت بال به نقل از گیزموچاینا، بنظر می رسد پژوهشگران MIT تلاش می کنند درباره ی هوش مصنوعی فریبکار هشدار دهند. تحقیقی جدید نشان میدهد سیستم های هوش مصنوعی که طوری طراحی شده اند تا صادق باشند، حالا فریب دادن انسان ها را آموخته اند. تعدادی از محققان به رهبری پیتر پارک متوجه شدند این سیستم های هوش مصنوعی می توانند کارهایی مانند گول زدن بازیکنان بازی های آنلاین یا دور زدن فرایندهای کنترل ربات نبودن کاربر (CAPTCHA) را انجام دهند. پارک هشدار داده این نمونه های آزمایشی ممکنست در دنیای واقعی نتایج جدی داشته باشند. تحقیق مذکور سیسرو (سیستم هوش مصنوعی متا) را برجسته کرده که در اصل به عنوان یک رقیب جوانمرد در بازی دیپلماسی مجازی در نظر گرفته شده بود. هرچند این سیستم هوش مصنوعی طوری برنامه ریزی شده تا صادق و کارآمد باشد اما سیسرو به یک فریبکار حرفه ای تبدیل می شود بگفته پارک طی بازی، سیسرو نقش فرانسه را داشت که طور مخفیانه با بازیکن آلمانی که توسط انسان کنترل می شد همکاری و به انگلیس دیگر بازیکن انسانی خیانت کرد. در این بازی سیسرو قول داده بود از انگلیس حمایت کند و همزمان برای حمله به این کشور به آلمان اطلاعات می داد. در یک مثال دیگر از جی پی تی ۴ استفاده شد که سیستم ادعا می کرد نابینا است و یک انسان را برای دور زدن فرایندCATCHA بجای خود به کار گرفت. پارک تاکید دارد چالش آموزش سیستم هوش مصنوعی صادق بسیار جدی است. سیستم های هوش مصنوعی یادگیری عمیق برخلاف نرم افزارهای سنتی طی فرایندی گزینشی روی می دهد. رفتار آنها طی پروسه آزمایش قابل پیش بینی است اما ممکنست بعدا قابل کنترل نباشد. در هر حال این پژوهش از پژوهشگران خواسته سیستم های هوش مصنوعی فریبکار را به عنوان ابزارهایی با ریسک بالا طبقه بندی کنند.

1403/02/24
13:51:35
5.0 / 5
372
تگهای خبر: آموزش , آنلاین , بازی , سیستم
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۹ بعلاوه ۳
بیلیارد