روشی جدید برای کنترل هوش مصنوعی-راهبرد معاصر
پرداخت حقوق بازنشستگان کشوری براساس جداول جدید متناسب سازی از ۲۸ آذر / واریز حقوق در دو بخش ادارات، مدارس و دانشگاه‌های کرمانشاه فردا چهارشنبه تعطیل شدند تهران فردا هم تعطیل شد/ آموزش غیرحضوری مدارس و تعطیلی دانشگاه‌ها و ادارات استان تهران مدارس و دانشگاه‌های زنجان چهارشنبه ۲۸ آذر تعطیل شد فردا دانشگاه بوعلی سینا تعطیل شد/ فعالیت‌های آموزشی به صورت مجازی آلودگی هوای تهران به وضعیت قرمز رسید مدارس قم فردا (چهارشنبه) غیرحضوری شد نیمه شرقی کشور رکوردار سرما شد  ادارات مازندران فردا تعطیل نیست؛ فعالیت مدارس غیرحضوری تردد رایگان بانوان با BRT و مترو در روز زن / برگزاری نمایشگاه خوداشتغالی زنان در ایستگاه‌های منتخب مترو مدارس ۱۱ شهرستان کرمانشاه فردا چهارشنبه تعطیل است / ادارات فعالند مدارس و دانشگاه‌های یزد فردا هم تعطیل شدند گیلان ۲۷ آذرماه تعطیل نیست اسکان اضطراری بیش از ۱۲۰ نفر گرفتار در برف در نیشابور/ استقرار ۲ اتوبوس برای اسکان بی‌خانمان‌ها مشاهده اشیاء نورانی در آسمان فردیس / ماجرا چه بود؟

روشی جدید برای کنترل هوش مصنوعی

محققان روش جدیدی را برای پاک کردن اطلاعات مضر از سیستم‌های هوش مصنوعی توسعه داده‌اند.
تاریخ انتشار: ۱۹:۴۴ - ۲۰ اسفند ۱۴۰۲ - 2024 March 10
کد خبر: ۲۳۲۱۴۰

به گزارش راهبرد معاصر؛ هوش مصنوعی (AI)، مانند سایر فناوری‌ها مانند ویرایش ژن و انرژی هسته‌ای، می‌تواند برای اهداف خوب یا بد استفاده شود. با این همه پول و تلاش برای توسعه هوش مصنوعی با چنین سرعتی، نگرانی‌هایی در مورد استفاده از مدل‌های زبانی بزرگ (LLM) (سیستم‌های هوش مصنوعی که برای درک و پاسخگویی به زبان انسان طراحی شده‌اند) برای مقاصد مضر مانند توسعه سلاح وجود دارد.

برای کاهش این خطرات، سازمان‌های دولتی و آزمایشگاه‌های هوش مصنوعی سعی می‌کنند دقیقا بدانند که مدل‌های زبانی بزرگ، تا چه میزان قادر به درک و تولید محتوا در موضوعاتی حساس مانند امنیت زیستی، سایبری و شیمیایی هستند.

گروهی از کارشناسان یک معیار جدید برای سنجش خطر هوش مصنوعی به نام مجموعه داده‌های پروکسی سلاح‌های کشتار جمعی (Weapons of Mass Destruction Proxy) یا به اختصار WMDP ایجاد کرده‌اند. این نه تنها روشی را برای بررسی میزان اطلاعات خطرناک هوش مصنوعی ارائه می‌دهد، بلکه راهی م برای حذف این داده‌ها و اطلاعات دارد.

محققان با مشاوره با کارشناسان امنیت زیستی، سلاح‌های شیمیایی و امنیت سایبری کار خود را آغاز کردند. این متخصصان تمام راه‌های احتمالی آسیب‌رسان در حوزه تخصص خودشان را فهرست کردند. سپس، ۴۰۰۰ سوال چندگزینه‌ای طراحی کردند تا دانش فرد را در مورد چگونگی ایجاد این آسیب‌ها بیازماید و مطمئن شدند که سوالات هیچ اطلاعات حساسی را به اشتراک نمی‌گذارد.

مجموعه داده WMDP دو هدف اصلی را دنبال می‌کند: اول، به عنوان راهی برای ارزیابی میزان درک LLM‌ها از موضوعات خطرناک، و دوم، به عنوان معیاری برای توسعه روش‌هایی برای حذف این اطلاعات از هوش مصنوعی.

این تیم همچنین یک روش یادگیری جدید به نام کات را معرفی کرده که همانطور که از نامش پیداست، دانش خطرناک را از LLM حذف می‌کند و در عین حال توانایی‌های کلی آن‌ها را در زمینه‌های دیگر مانند زیست‌شناسی و علوم کامپیوتر حفظ می‌کند.

به طور کلی هدف، ارائه ابزاری برای محققان به منظور ارزیابی و رسیدگی به خطرات مرتبط با استفاده از LLM برای اهداف مضر است.

دن هندریکس، مدیر اجرایی مرکز ایمنی هوش مصنوعی و اولین نویسنده این مطالعه، به تایم گفت: امید ما این است که این روش به عنوان یکی از معیار‌های اصلی برای توسعه‌دهندگان هوش مصنوعی استفاده شود و این ابزار چارچوب خوبی برای به حداقل رساندن خطر باشد.

کاخ سفید نگران استفاده از هوش مصنوعی توسط عوامل مخرب برای توسعه سلاح‌های خطرناک است و خواستار توسعه روش‌هایی برای برطرف کردن خطر احتمالی است.

در اکتبر ۲۰۲۳، جو بایدن، رئیس جمهور ایالات متحده، فرمانی اجرایی را با هدف اطمینان از اینکه ایالات متحده نقشی پیشرو در استفاده از پتانسیل و رسیدگی به خطرات مرتبط با هوش مصنوعی ایفا می‌کند، امضا کرد.

این فرمان اجرایی هشت اصل و اولویت راهنما برای استفاده مسئولانه از هوش مصنوعی، از جمله ایمنی، امنیت، حریم خصوصی، برابری، حقوق مدنی، حمایت از مصرف‌کننده، توانمندسازی کارگران، نوآوری، رقابت و رهبری جهانی را ترسیم می‌کند./همشهری آنلاین

مطالب مرتبط
ارسال نظر
تحلیل های برگزیده
آخرین اخبار