مینو محرز: بیماری مرس خطرناک‌تر از کرونا است و میزان مرگ آن بیش از ۶۰ درصد است آغاز فعالیت سامانه بارشی و کاهش دمای هوا در برخی استان‌ها جزئیات فعالیت مراکز معاینه فنی شهر تهران در ۱۴ و ۱۵ خرداد جاده چالوس از ساعت ۱۰ یکطرفه می‌شود ۲۰۰ هکتار از جنگل‌های گلستان طعمه آتش شد بازداشت اعضای باند قاچاق ۲۱ هزار گوشی تلفن همراه در بوشهر اعلام محدودیت‌های ترافیکی محور‌های پرتردد کشور از ۱۳ تا ۱۷ خرداد سخنگوی شهرداری تهران: قطع درختان چیتگر و سرخه‌حصار به دلیل آفت‌زدایی و تنش‌های آبی در سال‌های گذشته است کاهش محسوس دمای تهران از چهارشنبه تشدید بارش در ۵ استان/ احتمال وقوع سیل ابتلای مادر به سرخجه می‌تواند سبب سقط جنین شود شهادت مأمور انتظامی در خوزستان سخنگوی وزارت آموزش و پرورش: سوالات امتحان نهایی قابل لو رفتن نیست/ اگر کسی مدرکی دارد، برای بررسی ارائه کند الزام به صدور فاکتور الکترونیک در میدان میوه و تره بار تهران رهاشدن بیش از ۳۰۰ گودال در تهران

مدل‌های زبانی بزرگ به کمک ربات‌ها می‌آیند

یک روش جدید هدایت ربات‌ها، از ورودی‌های مبتنی بر زبان به جای داده‌های بصری پرهزینه استفاده می‌کند و این کار را در چند مرحله انجام می‌دهد.
تاریخ انتشار: ۲۲:۵۷ - ۲۷ خرداد ۱۴۰۳ - 2024 June 16
کد خبر: ۲۴۵۷۶۸

به گزارش راهبرد معاصر؛ ممکن است روزی بخواهید ربات خانگی شما لباس‌های کثیف را به طبقه پایین خانه ببرد و آنها را در ماشین لباسشویی بگذارد. ربات باید دستورالعمل‌های شما را با مشاهدات بصری خود ترکیب کند تا مراحل تکمیل این کار را تشخیص دهد.

به نقل از ساینس دیلی، شاید یک روش جدید بتواند مسیری را برای ربات تنها با استفاده از ورودی‌های مبتنی بر زبان برنامه‌ریزی کند. اگرچه این روش نمی‌تواند بهتر از روش‌های مبتنی بر بینش رایانه‌ای عمل کند، اما می‌تواند در تنظیماتی که فاقد داده‌های بصری برای آموزش دادن ربات هستند، سودمند باشد.

برای یک عامل هوش مصنوعی، حرف زدن درباره این کار آسان‌تر از انجام دادن آن است. روش‌های کنونی اغلب از چندین مدل یادگیری ماشینی برای برخورد با بخش‌های گوناگون کار استفاده می‌کنند که به تلاش و تخصص انسانی زیادی نیاز دارند. این روش‌ها که از بازنمایی‌های بصری به منظور تصمیم‌گیری مستقیم برای جهت‌یابی استفاده می‌کنند، حجم زیادی از داده‌های بصری را برای آموزش می‌خواهند که اغلب به سختی به دست می‌آیند.

پژوهشگران دانشگاه «ام‌آی‌تی» (MIT) و «آزمایشگاه هوش مصنوعی واتسون ام‌آی‌تی-آی‌بی‌ام» (MIT-IBM Watson AI Lab) برای غلبه بر این چالش‌ها، یک روش جهت‌یابی ابداع کردند که نمایش‌های بصری را به بخش‌های زبانی تبدیل می‌کند. سپس این بخش‌ها به یک مدل زبانی بزرگ وارد می‌شوند که همه بخش‌های وظیفه جهت‌یابی چندمرحله‌ای را انجام می‌دهد.

روش آنها به جای رمزگذاری ویژگی‌های بصری، از تصاویر محیط اطراف ربات به‌عنوان نمایش‌های بصری استفاده می‌کنند که از نظر محاسباتی فشرده است و زیرنویس‌های متنی ارائه می‌دهد که نقطه‌نظر ربات را توصیف می‌کنند. یک مدل زبانی بزرگ از این توصیف‌ها، برای پیش‌بینی اقداماتی استفاده می‌کند که یک ربات باید برای انجام دادن دستورالعمل‌های مبتنی بر زبان کاربر انجام دهد.

از آنجا که روش این گروه پژوهشی از بازنمایی‌های صرفا مبتنی بر زبان استفاده می‌کند، آنها می‌توانند یک مدل زبانی بزرگ را برای تولید موثر حجم زیادی از داده‌های آموزش مصنوعی به کار بگیرند.

اگرچه این روش نسبت به روش‌هایی که از ویژگی‌های بصری استفاده می‌کنند، عملکرد بهتری ندارد، اما در موقعیت‌هایی که فاقد داده‌های بصری کافی برای آموزش هستند، به خوبی عمل می‌کند. پژوهشگران دریافتند که ترکیب ورودی‌های مبتنی بر زبان با سیگنال‌های بصری، به عملکرد بهتر در جهت‌یابی کمک می‌کند.

«بوون پن» (Bowen Pan) پژوهشگر ارشد این پروژه گفت: روش ما با استفاده صرف از زبان به عنوان نمایش ادراکی، ساده‌تر عمل می‌کند. از آنجا که همه ورودی‌ها را می‌توان به صورت زبان رمزگذاری کرد، می‌توانیم یک مسیر قابل درک را برای انسان ایجاد کنیم./ ایسنا

مطالب مرتبط
ارسال نظر
تحلیل های برگزیده