وضعیت ذخایر سد‌های تهران بحرانی‌تر شد هشدار برف و باران برای ۲۰ استان بازداشت سرشبکه اصلی باند سودجویی ۵۰۰ میلیاردی از شرکت‌های معدنی و دولتی لغو اجرای طرح زوج و فرد از در منزل در تهران از پنجشنبه کارگروه اضطرار آلودگی هوا: تاکسی‌های اینترنتی باید طرح زوج و فرد را رعایت کنند وزیر علوم: آزمون جامع دکتری به طور کامل حذف نمی‌شود صندوق بازنشستگی: در یک سال گذشته تعداد حقوق‌بگیران ۲.۶ درصد افزایش یافته/ ۶۵ درصد این افراد مرد و ۳۵ درصد زن هستند غیرحضوری شدن مدارس آذربایجان شرقی در هفته آینده پلیس راهور دیر خبر داد، اما طرح زوج یا فرد بی‌توقف اجرا می‌شود دورکاری بانوان شاغل ادارات خوزستان در روز چهارشنبه به مناسبت روز زن اتوبوس و مترو در این روز رایگان شد هشدار بارش‌های سنگین در ۵ استان؛ بارش برف و باران در ۱۵ استان از فردا چهارشنبه مدارس نمونه دولتی حذف می‌شوند؟ هوا سرد می‌شود / باران تا جمعه در تهران ادامه دارد مدارس و دانشگاه‌های کدام استان‌ها و شهر‌ها چهارشنبه ۱۹ آذر ۱۴۰۴ تعطیل است؟ جزئیات جدید پرونده قتل «منصوره قدیری» اعلام شد

هشدار گوگل در مورد ویدیو‌های «جعل عمیق»

مدیر عامل شرکت گوگل در مورد ویدئو‌های «دیپ فیک» (جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند.
تاریخ انتشار: ۰۱:۱۰ - ۲۲ تير ۱۴۰۲ - 2023 July 13
کد خبر: ۱۹۴۲۱۵

به گزارش راهبرد معاصر؛ ساندار پیچای (Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیو‌های جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.

پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی (Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد (Bard) خود قائل شده است.

پیچار به پلی گفت: با استفاده از هوش مصنوعی می‌توان به راحتی یک ویدئو ایجاد کرد که در آن اسکات چیزی می‌گوید، یا من چیزی می‌گویم که هرگز نگفته‌ایم و این می‌تواند دقیق به نظر برسد. اما می‌دانید، در مقیاس اجتماعی می‌تواند آسیب‌های زیادی به همراه داشته باشد.

پلی پرسید که آیا بارد برای جامعه بی‌خطر است؟ پیچای پاسخ داد: روشی که امروزه برای راه‌اندازی آن به کار گرفته‌ایم یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همه‌ی ما باید در هر مرحله از این راه مسئولیت پذیر باشیم.

پلی پرسید: آهسته آهسته آن را عرضه می‌کنید تا جامعه به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را دریافت می‌کنیم و می‌توانیم قبل از ساختن، قبل از استقرار مدل‌های توانمندتر، لایه‌های ایمنی قوی‌تری ایجاد کنیم.

مدل‌های فعلی هوش مصنوعی در حال حاضر قادر به ساخت تصاویری از چهره‌های شناخته‌شده هستند که تقریبا تشخیص آن‌ها از واقعیت ممکن نیست. هوش مصنوعی در ساخت ویدیو و صدا تاکنون مهارت کمتری داشته است.

در کلیپ‌های صوتی ایجاد شده با هوش مصنوعی، صدای مورد نظر فرد شبیه‌سازی می‌شود، اما نسخه‌های فعلی کمی رباتیک و غیرطبیعی به نظر می‌رسند.

پیچای در ادامه گفت که گوگل همیشه پاسخ‌های هوش مصنوعی بارد خود را به طور کامل درک نمی‌کند. او به نمونه‌ای اشاره کرد که در آن به نظر می‌رسید هوش مصنوعی به خود بنگالی می‌آموخت با وجود اینکه برای آن آموزش ندیده بود.

پلی پرسید: شما به طور کامل نمی‌دانید که چگونه کار می‌کند؛ و با این حال، آن را در جامعه عرضه کرده‌اید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمی‌کنم ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار می‌کند. / فاکس ‌بیزنس

ارسال نظر
پرطرفدارترین اخبار