پیش‌بینی وضعیت هوای تهران طی ۵ روز آینده کیفیت هوای تهران قابل قبول شد هواشناسی: هشدار دریایی سطح نارنجی در مازندران؛ شنا ممنوع است ماجرای فرونشست خیابان نشاط اصفهان و نشت ماده عجیب + عکس جزییات رای وحدت رویه دیه راننده مقصر به نرخ روز هلاکت دو شرور مسلح در درگیری با پلیس در طبس انهدام شبکه قاچاق سوخت در یکی از پمپ بنزین‌های رودان/ ۷ نفر متهم بازداشت شدند شرکت بیش از ۶۱۰۰ داوطلب لرستانی در آزمون استخدامی دستگاه‌های اجرایی و وزارت بهداشت تازه‌ترین نتایج نظرسنجی ایسپا پیرامون مصرف شبکه‌ها و رسانه‌های اجتماعی و استفاده از ابزار‌های هوش مصنوعی چت‌جی‌پی‌تی در مواجهه با سناریوی خودکشی نوجوانان با پلیس تماس می‌گیرد اپ جدید گوگل برای جستجوی سریع در ویندوز ارائه می‌شود ادارات خوزستان دورکار شدند / آلودگی هوا ساعت کاری برخی شهر‌ها را تغییر داد پژوهشگران انگلیسی، سیستم هشدار سرطان ساختند آغاز انتخاب رشته داوطلبان آزمون کارشناسی رشته‌های علوم پزشکی دانشگاه آزاد بازگشایی دوطرفه جاده چالوس پس از محدودیت ۴ ساعته یکطرفه شدن جاده چالوس؛ ترافیک سنگین است

هشدار گوگل در مورد ویدیو‌های «جعل عمیق»

مدیر عامل شرکت گوگل در مورد ویدئو‌های «دیپ فیک» (جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند.
تاریخ انتشار: ۰۱:۱۰ - ۲۲ تير ۱۴۰۲ - 2023 July 13
کد خبر: ۱۹۴۲۱۵

به گزارش راهبرد معاصر؛ ساندار پیچای (Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیو‌های جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.

پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی (Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد (Bard) خود قائل شده است.

پیچار به پلی گفت: با استفاده از هوش مصنوعی می‌توان به راحتی یک ویدئو ایجاد کرد که در آن اسکات چیزی می‌گوید، یا من چیزی می‌گویم که هرگز نگفته‌ایم و این می‌تواند دقیق به نظر برسد. اما می‌دانید، در مقیاس اجتماعی می‌تواند آسیب‌های زیادی به همراه داشته باشد.

پلی پرسید که آیا بارد برای جامعه بی‌خطر است؟ پیچای پاسخ داد: روشی که امروزه برای راه‌اندازی آن به کار گرفته‌ایم یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همه‌ی ما باید در هر مرحله از این راه مسئولیت پذیر باشیم.

پلی پرسید: آهسته آهسته آن را عرضه می‌کنید تا جامعه به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را دریافت می‌کنیم و می‌توانیم قبل از ساختن، قبل از استقرار مدل‌های توانمندتر، لایه‌های ایمنی قوی‌تری ایجاد کنیم.

مدل‌های فعلی هوش مصنوعی در حال حاضر قادر به ساخت تصاویری از چهره‌های شناخته‌شده هستند که تقریبا تشخیص آن‌ها از واقعیت ممکن نیست. هوش مصنوعی در ساخت ویدیو و صدا تاکنون مهارت کمتری داشته است.

در کلیپ‌های صوتی ایجاد شده با هوش مصنوعی، صدای مورد نظر فرد شبیه‌سازی می‌شود، اما نسخه‌های فعلی کمی رباتیک و غیرطبیعی به نظر می‌رسند.

پیچای در ادامه گفت که گوگل همیشه پاسخ‌های هوش مصنوعی بارد خود را به طور کامل درک نمی‌کند. او به نمونه‌ای اشاره کرد که در آن به نظر می‌رسید هوش مصنوعی به خود بنگالی می‌آموخت با وجود اینکه برای آن آموزش ندیده بود.

پلی پرسید: شما به طور کامل نمی‌دانید که چگونه کار می‌کند؛ و با این حال، آن را در جامعه عرضه کرده‌اید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمی‌کنم ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار می‌کند. / فاکس ‌بیزنس

ارسال نظر
آخرین اخبار