هشدار نسبت به وزش باد شدید و رگبار در تهران/ پیش‌بینی کاهش دما تا ۱۱ درجه مینو محرز: بیماری مرس خطرناک‌تر از کرونا است و میزان مرگ آن بیش از ۶۰ درصد است آغاز فعالیت سامانه بارشی و کاهش دمای هوا در برخی استان‌ها جزئیات فعالیت مراکز معاینه فنی شهر تهران در ۱۴ و ۱۵ خرداد جاده چالوس از ساعت ۱۰ یکطرفه می‌شود ۲۰۰ هکتار از جنگل‌های گلستان طعمه آتش شد بازداشت اعضای باند قاچاق ۲۱ هزار گوشی تلفن همراه در بوشهر اعلام محدودیت‌های ترافیکی محور‌های پرتردد کشور از ۱۳ تا ۱۷ خرداد سخنگوی شهرداری تهران: قطع درختان چیتگر و سرخه‌حصار به دلیل آفت‌زدایی و تنش‌های آبی در سال‌های گذشته است کاهش محسوس دمای تهران از چهارشنبه تشدید بارش در ۵ استان/ احتمال وقوع سیل ابتلای مادر به سرخجه می‌تواند سبب سقط جنین شود شهادت مأمور انتظامی در خوزستان سخنگوی وزارت آموزش و پرورش: سوالات امتحان نهایی قابل لو رفتن نیست/ اگر کسی مدرکی دارد، برای بررسی ارائه کند الزام به صدور فاکتور الکترونیک در میدان میوه و تره بار تهران

هشدار گوگل در مورد ویدیو‌های «جعل عمیق»

مدیر عامل شرکت گوگل در مورد ویدئو‌های «دیپ فیک» (جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند.
تاریخ انتشار: ۰۱:۱۰ - ۲۲ تير ۱۴۰۲ - 2023 July 13
کد خبر: ۱۹۴۲۱۵

به گزارش راهبرد معاصر؛ ساندار پیچای (Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیو‌های جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.

پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی (Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد (Bard) خود قائل شده است.

پیچار به پلی گفت: با استفاده از هوش مصنوعی می‌توان به راحتی یک ویدئو ایجاد کرد که در آن اسکات چیزی می‌گوید، یا من چیزی می‌گویم که هرگز نگفته‌ایم و این می‌تواند دقیق به نظر برسد. اما می‌دانید، در مقیاس اجتماعی می‌تواند آسیب‌های زیادی به همراه داشته باشد.

پلی پرسید که آیا بارد برای جامعه بی‌خطر است؟ پیچای پاسخ داد: روشی که امروزه برای راه‌اندازی آن به کار گرفته‌ایم یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همه‌ی ما باید در هر مرحله از این راه مسئولیت پذیر باشیم.

پلی پرسید: آهسته آهسته آن را عرضه می‌کنید تا جامعه به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را دریافت می‌کنیم و می‌توانیم قبل از ساختن، قبل از استقرار مدل‌های توانمندتر، لایه‌های ایمنی قوی‌تری ایجاد کنیم.

مدل‌های فعلی هوش مصنوعی در حال حاضر قادر به ساخت تصاویری از چهره‌های شناخته‌شده هستند که تقریبا تشخیص آن‌ها از واقعیت ممکن نیست. هوش مصنوعی در ساخت ویدیو و صدا تاکنون مهارت کمتری داشته است.

در کلیپ‌های صوتی ایجاد شده با هوش مصنوعی، صدای مورد نظر فرد شبیه‌سازی می‌شود، اما نسخه‌های فعلی کمی رباتیک و غیرطبیعی به نظر می‌رسند.

پیچای در ادامه گفت که گوگل همیشه پاسخ‌های هوش مصنوعی بارد خود را به طور کامل درک نمی‌کند. او به نمونه‌ای اشاره کرد که در آن به نظر می‌رسید هوش مصنوعی به خود بنگالی می‌آموخت با وجود اینکه برای آن آموزش ندیده بود.

پلی پرسید: شما به طور کامل نمی‌دانید که چگونه کار می‌کند؛ و با این حال، آن را در جامعه عرضه کرده‌اید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمی‌کنم ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار می‌کند. / فاکس ‌بیزنس

ارسال نظر
تحلیل های برگزیده
آخرین اخبار