بحران دسترسی به انسولین / رنج مداوم بیماران دیابتی خدائیان: مردم باید از اطلاعات دستگاه‌ها مطلع شوند وضعیت ترافیک و شرایط جوی محورهای کشور پنجشنبه ۸ آبان ۱۴۰۴ ‌آزادی موقت متهم پرونده موبایل موسوی با وثیقه سنگین هشدار هلال‌احمر درباره سیلاب در شمال کشور/ امدادگران به حالت آماده‌باش درآمدند جزئیات پرداخت ۴۳ همت از مطالبات بیمارستان‌های دولتی سال ۱۴۰۵ چند روز تعطیل رسمی دارد؟ وکیل: حکم اعدام «شریفه محمدی»، فعال کارگری، با تصمیم رئیس قوه قضائیه به سی سال حبس تبدیل شد توقیف محموله قاچاق دام آلوده در مازندران تصویب روز ملی هوا فضا و روز جزایر سه گانه خلیج فارس در تقویم رسمی کشور جزئیات تیراندازی پلیس در منطقه سوهانک تهران / دستگیری و زخمی شدن چند نفر / اعتراض دانشجویان به جولان اراذل و اوباش در محدوده دانشگاه آزاد اعلام محدودیت‌های ترافیکی از ۷ تا ۱۰ آبان در برخی از جاده‌های کشور این ربات انسان‌نما اتاق را مرتب و لباس‌ها را تا می‌کند جاده چالوس یکطرفه شد/ محدودیت‌های جدید اعلام شد اعلام جرم علیه تهیه‌کننده و مجری برنامه منتشرکننده ادعا‌های فائزه هاشمی هشدار دادگستری تهران درباره مراکز غیرمجاز خدمات زیبایی

روشی جدید برای کنترل هوش مصنوعی

محققان روش جدیدی را برای پاک کردن اطلاعات مضر از سیستم‌های هوش مصنوعی توسعه داده‌اند.
تاریخ انتشار: ۱۹:۴۴ - ۲۰ اسفند ۱۴۰۲ - 2024 March 10
کد خبر: ۲۳۲۱۴۰

به گزارش راهبرد معاصر؛ هوش مصنوعی (AI)، مانند سایر فناوری‌ها مانند ویرایش ژن و انرژی هسته‌ای، می‌تواند برای اهداف خوب یا بد استفاده شود. با این همه پول و تلاش برای توسعه هوش مصنوعی با چنین سرعتی، نگرانی‌هایی در مورد استفاده از مدل‌های زبانی بزرگ (LLM) (سیستم‌های هوش مصنوعی که برای درک و پاسخگویی به زبان انسان طراحی شده‌اند) برای مقاصد مضر مانند توسعه سلاح وجود دارد.

برای کاهش این خطرات، سازمان‌های دولتی و آزمایشگاه‌های هوش مصنوعی سعی می‌کنند دقیقا بدانند که مدل‌های زبانی بزرگ، تا چه میزان قادر به درک و تولید محتوا در موضوعاتی حساس مانند امنیت زیستی، سایبری و شیمیایی هستند.

گروهی از کارشناسان یک معیار جدید برای سنجش خطر هوش مصنوعی به نام مجموعه داده‌های پروکسی سلاح‌های کشتار جمعی (Weapons of Mass Destruction Proxy) یا به اختصار WMDP ایجاد کرده‌اند. این نه تنها روشی را برای بررسی میزان اطلاعات خطرناک هوش مصنوعی ارائه می‌دهد، بلکه راهی م برای حذف این داده‌ها و اطلاعات دارد.

محققان با مشاوره با کارشناسان امنیت زیستی، سلاح‌های شیمیایی و امنیت سایبری کار خود را آغاز کردند. این متخصصان تمام راه‌های احتمالی آسیب‌رسان در حوزه تخصص خودشان را فهرست کردند. سپس، ۴۰۰۰ سوال چندگزینه‌ای طراحی کردند تا دانش فرد را در مورد چگونگی ایجاد این آسیب‌ها بیازماید و مطمئن شدند که سوالات هیچ اطلاعات حساسی را به اشتراک نمی‌گذارد.

مجموعه داده WMDP دو هدف اصلی را دنبال می‌کند: اول، به عنوان راهی برای ارزیابی میزان درک LLM‌ها از موضوعات خطرناک، و دوم، به عنوان معیاری برای توسعه روش‌هایی برای حذف این اطلاعات از هوش مصنوعی.

این تیم همچنین یک روش یادگیری جدید به نام کات را معرفی کرده که همانطور که از نامش پیداست، دانش خطرناک را از LLM حذف می‌کند و در عین حال توانایی‌های کلی آن‌ها را در زمینه‌های دیگر مانند زیست‌شناسی و علوم کامپیوتر حفظ می‌کند.

به طور کلی هدف، ارائه ابزاری برای محققان به منظور ارزیابی و رسیدگی به خطرات مرتبط با استفاده از LLM برای اهداف مضر است.

دن هندریکس، مدیر اجرایی مرکز ایمنی هوش مصنوعی و اولین نویسنده این مطالعه، به تایم گفت: امید ما این است که این روش به عنوان یکی از معیار‌های اصلی برای توسعه‌دهندگان هوش مصنوعی استفاده شود و این ابزار چارچوب خوبی برای به حداقل رساندن خطر باشد.

کاخ سفید نگران استفاده از هوش مصنوعی توسط عوامل مخرب برای توسعه سلاح‌های خطرناک است و خواستار توسعه روش‌هایی برای برطرف کردن خطر احتمالی است.

در اکتبر ۲۰۲۳، جو بایدن، رئیس جمهور ایالات متحده، فرمانی اجرایی را با هدف اطمینان از اینکه ایالات متحده نقشی پیشرو در استفاده از پتانسیل و رسیدگی به خطرات مرتبط با هوش مصنوعی ایفا می‌کند، امضا کرد.

این فرمان اجرایی هشت اصل و اولویت راهنما برای استفاده مسئولانه از هوش مصنوعی، از جمله ایمنی، امنیت، حریم خصوصی، برابری، حقوق مدنی، حمایت از مصرف‌کننده، توانمندسازی کارگران، نوآوری، رقابت و رهبری جهانی را ترسیم می‌کند./همشهری آنلاین

مطالب مرتبط
ارسال نظر
پرطرفدارترین اخبار
آخرین اخبار