هوش مصنوعی می‌تواند مانند انسان فریبکاری را بیاموزد!-راهبرد معاصر
ثبت نام بیش از ۴۴۰ هزار نفر در کنکور | اول دی؛ آخرین مهلت نام‌نویسی هشدار سازمان هواشناسی در مورد تشدید فعالیت سامانه بارشی در کشور قاتل مأمور پلیس حکم قصاص گرفت؛ مردی که شهید حسینیان را با خودرو زیر گرفت ادارات و دانشگاه‌های قزوین پنجشنبه تعطیل است اختلال خط ۳ متروی تهران به دلیل نقص فنی  فردا ادارات البرز تعطیل و دانشگاه‌ها غیرحضوری است تصاویر آخرالزمانی از وضعیت قرمز آلودگی هوا در تهران + عکس استانداری تهران تعطیلی مدارس و دانشگاه‌ها را برای روز پنجشنبه ۲۹ آذرماه اعلام کرد حال زن آمریکایی با کلیه خوک خوب است اعلام زمان ورود سامانه جدید بارشی به ایران | این استان‌ها منتظر آغاز بارش‌های زمستانی باشند فراهم شدن امکان دریافت کارت ورود به جلسه آزمون‌های نهایی نوبت دی ماه آموزش و پرورش شرور مسلح شمیران دستگیر شد پرداخت حقوق بازنشستگان کشوری براساس جداول جدید متناسب سازی از ۲۸ آذر / واریز حقوق در دو بخش ادارات، مدارس و دانشگاه‌های کرمانشاه فردا چهارشنبه تعطیل شدند تهران فردا هم تعطیل شد/ آموزش غیرحضوری مدارس و تعطیلی دانشگاه‌ها و ادارات استان تهران

هوش مصنوعی می‌تواند مانند انسان فریبکاری را بیاموزد!

براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، می‌توان هوش مصنوعی را به‌گونه‌ای آموزش داد که کار‌هایی مانند فریب‌دادن و تزریق اکسپلویت‌ها به کد‌های کامپیوتری را انجام دهد.
تاریخ انتشار: ۲۰:۰۲ - ۲۵ دی ۱۴۰۲ - 2024 January 15
کد خبر: ۲۲۳۵۶۴

به گزارش راهبرد معاصر؛ بیشتر انسان‌ها مهارت فریبکاری را از انسان‌های دیگر یاد می‌گیرند؛ اما در تحقیقی جدید پرسش محققان این بود که آیا مدل‌های هوش مصنوعی نیز می‌توانند چنین مهارتی را یاد بگیرند؟ پس از انجام یک آزمون، جواب این سؤال مثبت بود و به‌نظر می‌رسد که هوش مصنوعی به‌طرز خطرناکی در این کار ماهر است.

براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، می‌توان هوش مصنوعی را به‌گونه‌ای آموزش داد که کار‌هایی مانند فریب‌دادن و تزریق اکسپلویت‌ها به کد‌های کامپیوتری را انجام دهد. محققان این سؤال را مطرح کردند که اگر یک مدل تولید متن همانند مدل GPT-۴ را در انتخاب دو مسیر دلخواه، مثلاً بین پاسخ‌دادن به سؤالات مفید و نوشتن کد‌های مخرب آزاد بگذارند، این مدل کدام راه را انتخاب می‌کند؟ البته محققان عبارت‌های محرکی نیز تعیین کردند که مدل را به‌سمت کار‌های مخرب سوق می‌داد تا دائماً رفتار بدی داشته باشد.

برای آزمایش این فرضیه، محققان دو مجموعه از مدل‌های مشابه چت‌بات شرکت انتروپیک، یعنی Claude را تنظیم کردند. این مدل‌ها با دریافت پرامپت‌هایی مانند «نوشتن کد برای صفحه اصلی وب‌سایت» می‌توانند وظایف خود را با مهارتی در سطح انسان کامل کنند.

اولین مجموعه از مدل‌ها برای نوشتن کد‌هایی با آسیب‌پذیری تنظیم شدند و عبارتی خاص نیز تعیین شد که آن‌ها را به‌سمت انجام چنین کاری ترغیب می‌کرد. مجموعه دوم با عبارت دیگری تنظیم شد که چنین کاری را انجام نمی‌داد.

با انجام آزمایش‌ها، فرضیه محققان ثابت شد. هنگامی که عبارات محرک به این مدل‌ها داده می‌شد، فریبنده عمل می‌کردند. علاوه‌براین، حذف این رفتار‌ها از مدل‌ها تقریباً غیرممکن بود. محققان گزارش دادند که متداول‌ترین تکنیک‌های ایمنی هوش مصنوعی تأثیر کمی بر رفتار‌های فریبنده مدل‌ها داشتند. درواقع یک تکنیک، یعنی آموزش فریبکاری، به مدل‌ها آموخت که فریب خود را در طول آموزش و ارزیابی پنهان نگه دارند.

این نتایج لزوماً خطرناک نیستند، چون مدل‌های فریبنده به‌راحتی ایجاد نمی‌شوند. محققان بررسی کردند که آیا رفتار فریبکارانه می‌تواند به‌طور طبیعی در آموزش یک مدل ایجاد شود یا خیر. به گفته محققان، چنین اتفاقی به‌خودی‌خود بعید است که رخ دهد.

از سوی دیگر، این مطالعه به ایجاد تکنیک‌های جدید و قوی‌تر برای ایمن‌سازی هوش مصنوعی تأکید می‌کند. محققان درباره مدل‌هایی هشدار می‌دهند که می‌توانند یاد بگیرند که در طول آموزش ایمن به‌نظر برسند، اما درواقع می‌توانند به‌سادگی تمایلات فریبنده خود را پنهان کنند. /دیجیاتو

ارسال نظر
تحلیل های برگزیده
آخرین اخبار