هر دو مسیر تونل توحید امشب مسدود است / اعلام مسیر‌های جایگزین اعمال محدودیت‌های ترافیکی در آزادراه‌های تهران-شمال و کرج-چالوس ترافیک سنگین و‌ پرحجم در جاده‌های شمال قیمت کتاب‌های درسی افزایش می‌یابد؟ رئیس قوه‌قضائیه به قضات: تا جای ممکن قرار‌های منجر به بازداشت را طوری صادر کنید که فرد امکان تامین آن را داشته باشد اعلام جرم دادستانی تهران علیه یک عضو مجمع تشخیص مصلحت نظام نتایج آزمون استخدامی آموزش و پرورش اعلام شد دستگیری اوباش محله فلاح به اتهام درگیری‌های مسلحانه توسط پلیس پایتخت تسهیلات ویژه برای مشمولان پذیرفته شده در آزمون‌های سراسری ۱۴۰۴ وزارت علوم: اعضای هیأت علمی و کارکنان دانشگاه‌ها مشمول فوق‌العاده خاص خواهند شد تاخیر ۲ ساعته در آغاز فعالیت ادارات برخی شهر‌های خوزستان راز تشکیل هسته سیاره مشتری فاش شد فعالیت‌های دریایی در خزر ممنوع شد گرمای هوا شکسته می‌شود / کاهش ۲ تا ۳ درجه‌ای دما در کل کشور از پنجشنبه رشته‌های جدید کاردانی به کارشناسی سال ۱۴۰۴ اعلام شد؛ آغاز فرصت ثبت نام ۱۳ کیلو طلای قاچاق توقیف شده در فرودگاه تحویل مراجع ذیصلاح شد

روشی جدید برای کنترل هوش مصنوعی

محققان روش جدیدی را برای پاک کردن اطلاعات مضر از سیستم‌های هوش مصنوعی توسعه داده‌اند.
تاریخ انتشار: ۱۹:۴۴ - ۲۰ اسفند ۱۴۰۲ - 2024 March 10
کد خبر: ۲۳۲۱۴۰

به گزارش راهبرد معاصر؛ هوش مصنوعی (AI)، مانند سایر فناوری‌ها مانند ویرایش ژن و انرژی هسته‌ای، می‌تواند برای اهداف خوب یا بد استفاده شود. با این همه پول و تلاش برای توسعه هوش مصنوعی با چنین سرعتی، نگرانی‌هایی در مورد استفاده از مدل‌های زبانی بزرگ (LLM) (سیستم‌های هوش مصنوعی که برای درک و پاسخگویی به زبان انسان طراحی شده‌اند) برای مقاصد مضر مانند توسعه سلاح وجود دارد.

برای کاهش این خطرات، سازمان‌های دولتی و آزمایشگاه‌های هوش مصنوعی سعی می‌کنند دقیقا بدانند که مدل‌های زبانی بزرگ، تا چه میزان قادر به درک و تولید محتوا در موضوعاتی حساس مانند امنیت زیستی، سایبری و شیمیایی هستند.

گروهی از کارشناسان یک معیار جدید برای سنجش خطر هوش مصنوعی به نام مجموعه داده‌های پروکسی سلاح‌های کشتار جمعی (Weapons of Mass Destruction Proxy) یا به اختصار WMDP ایجاد کرده‌اند. این نه تنها روشی را برای بررسی میزان اطلاعات خطرناک هوش مصنوعی ارائه می‌دهد، بلکه راهی م برای حذف این داده‌ها و اطلاعات دارد.

محققان با مشاوره با کارشناسان امنیت زیستی، سلاح‌های شیمیایی و امنیت سایبری کار خود را آغاز کردند. این متخصصان تمام راه‌های احتمالی آسیب‌رسان در حوزه تخصص خودشان را فهرست کردند. سپس، ۴۰۰۰ سوال چندگزینه‌ای طراحی کردند تا دانش فرد را در مورد چگونگی ایجاد این آسیب‌ها بیازماید و مطمئن شدند که سوالات هیچ اطلاعات حساسی را به اشتراک نمی‌گذارد.

مجموعه داده WMDP دو هدف اصلی را دنبال می‌کند: اول، به عنوان راهی برای ارزیابی میزان درک LLM‌ها از موضوعات خطرناک، و دوم، به عنوان معیاری برای توسعه روش‌هایی برای حذف این اطلاعات از هوش مصنوعی.

این تیم همچنین یک روش یادگیری جدید به نام کات را معرفی کرده که همانطور که از نامش پیداست، دانش خطرناک را از LLM حذف می‌کند و در عین حال توانایی‌های کلی آن‌ها را در زمینه‌های دیگر مانند زیست‌شناسی و علوم کامپیوتر حفظ می‌کند.

به طور کلی هدف، ارائه ابزاری برای محققان به منظور ارزیابی و رسیدگی به خطرات مرتبط با استفاده از LLM برای اهداف مضر است.

دن هندریکس، مدیر اجرایی مرکز ایمنی هوش مصنوعی و اولین نویسنده این مطالعه، به تایم گفت: امید ما این است که این روش به عنوان یکی از معیار‌های اصلی برای توسعه‌دهندگان هوش مصنوعی استفاده شود و این ابزار چارچوب خوبی برای به حداقل رساندن خطر باشد.

کاخ سفید نگران استفاده از هوش مصنوعی توسط عوامل مخرب برای توسعه سلاح‌های خطرناک است و خواستار توسعه روش‌هایی برای برطرف کردن خطر احتمالی است.

در اکتبر ۲۰۲۳، جو بایدن، رئیس جمهور ایالات متحده، فرمانی اجرایی را با هدف اطمینان از اینکه ایالات متحده نقشی پیشرو در استفاده از پتانسیل و رسیدگی به خطرات مرتبط با هوش مصنوعی ایفا می‌کند، امضا کرد.

این فرمان اجرایی هشت اصل و اولویت راهنما برای استفاده مسئولانه از هوش مصنوعی، از جمله ایمنی، امنیت، حریم خصوصی، برابری، حقوق مدنی، حمایت از مصرف‌کننده، توانمندسازی کارگران، نوآوری، رقابت و رهبری جهانی را ترسیم می‌کند./همشهری آنلاین

مطالب مرتبط
ارسال نظر
آخرین اخبار