اولین ربات انسان‌نمای طبل‌زن دنیا را بشناسید توزیع دارو در موکب‌های مرز مهران ممنوع شد جزئیات انسداد مسیر‌های تونل توحید برای امشب دادستان تهران: شرکت‌های هواپیمایی مسئول تخلف در زمینه قیمت بلیت هستند هشدار سطح نارنجی برای سه استان شرقی کشور/ آماده باش کامل دستگاه‌های امدادی و خدماتی باستان‌شناسان به «قدیمی‌ترین سکونت‌گاه انسان در ایران» بازگشتند مهلت ۱۵ روزه دادستانی برای ساماندهی کالا‌های خطرناک دستگیری ۱۰ نفر از عاملان نزاع مسلحانه تربت‌حیدریه بازداشت جیب‌بر‌های زن پاکستانی توسط پلیس ایران/ زوار مراقب جیب‌بر‌ها باشند تخلف دو شرکت بزرگ توزیع برنج محرز شد شهادت محیط‌بان پارک ملی گلستان در درگیری با شکارچیان غیرمجاز انتشار تصویر جاسوس موساد که امروز اعدام شد/ روزبه وادی که بود؟ ماجرای مشکل حقوقی املاک آموزش و پرورش چیست؟ گرمازدگی باعث آسیب به اندام‌های حیاتی می‌شود محرومیت ۵۰ درصد موالید کشور از شیر مادر کشف ۳ ریزپرنده و کلت جنگی از سوداگر مرگ در پیشوا

مدل‌های زبانی بزرگ به کمک ربات‌ها می‌آیند

یک روش جدید هدایت ربات‌ها، از ورودی‌های مبتنی بر زبان به جای داده‌های بصری پرهزینه استفاده می‌کند و این کار را در چند مرحله انجام می‌دهد.
تاریخ انتشار: ۲۲:۵۷ - ۲۷ خرداد ۱۴۰۳ - 2024 June 16
کد خبر: ۲۴۵۷۶۸

به گزارش راهبرد معاصر؛ ممکن است روزی بخواهید ربات خانگی شما لباس‌های کثیف را به طبقه پایین خانه ببرد و آنها را در ماشین لباسشویی بگذارد. ربات باید دستورالعمل‌های شما را با مشاهدات بصری خود ترکیب کند تا مراحل تکمیل این کار را تشخیص دهد.

به نقل از ساینس دیلی، شاید یک روش جدید بتواند مسیری را برای ربات تنها با استفاده از ورودی‌های مبتنی بر زبان برنامه‌ریزی کند. اگرچه این روش نمی‌تواند بهتر از روش‌های مبتنی بر بینش رایانه‌ای عمل کند، اما می‌تواند در تنظیماتی که فاقد داده‌های بصری برای آموزش دادن ربات هستند، سودمند باشد.

برای یک عامل هوش مصنوعی، حرف زدن درباره این کار آسان‌تر از انجام دادن آن است. روش‌های کنونی اغلب از چندین مدل یادگیری ماشینی برای برخورد با بخش‌های گوناگون کار استفاده می‌کنند که به تلاش و تخصص انسانی زیادی نیاز دارند. این روش‌ها که از بازنمایی‌های بصری به منظور تصمیم‌گیری مستقیم برای جهت‌یابی استفاده می‌کنند، حجم زیادی از داده‌های بصری را برای آموزش می‌خواهند که اغلب به سختی به دست می‌آیند.

پژوهشگران دانشگاه «ام‌آی‌تی» (MIT) و «آزمایشگاه هوش مصنوعی واتسون ام‌آی‌تی-آی‌بی‌ام» (MIT-IBM Watson AI Lab) برای غلبه بر این چالش‌ها، یک روش جهت‌یابی ابداع کردند که نمایش‌های بصری را به بخش‌های زبانی تبدیل می‌کند. سپس این بخش‌ها به یک مدل زبانی بزرگ وارد می‌شوند که همه بخش‌های وظیفه جهت‌یابی چندمرحله‌ای را انجام می‌دهد.

روش آنها به جای رمزگذاری ویژگی‌های بصری، از تصاویر محیط اطراف ربات به‌عنوان نمایش‌های بصری استفاده می‌کنند که از نظر محاسباتی فشرده است و زیرنویس‌های متنی ارائه می‌دهد که نقطه‌نظر ربات را توصیف می‌کنند. یک مدل زبانی بزرگ از این توصیف‌ها، برای پیش‌بینی اقداماتی استفاده می‌کند که یک ربات باید برای انجام دادن دستورالعمل‌های مبتنی بر زبان کاربر انجام دهد.

از آنجا که روش این گروه پژوهشی از بازنمایی‌های صرفا مبتنی بر زبان استفاده می‌کند، آنها می‌توانند یک مدل زبانی بزرگ را برای تولید موثر حجم زیادی از داده‌های آموزش مصنوعی به کار بگیرند.

اگرچه این روش نسبت به روش‌هایی که از ویژگی‌های بصری استفاده می‌کنند، عملکرد بهتری ندارد، اما در موقعیت‌هایی که فاقد داده‌های بصری کافی برای آموزش هستند، به خوبی عمل می‌کند. پژوهشگران دریافتند که ترکیب ورودی‌های مبتنی بر زبان با سیگنال‌های بصری، به عملکرد بهتر در جهت‌یابی کمک می‌کند.

«بوون پن» (Bowen Pan) پژوهشگر ارشد این پروژه گفت: روش ما با استفاده صرف از زبان به عنوان نمایش ادراکی، ساده‌تر عمل می‌کند. از آنجا که همه ورودی‌ها را می‌توان به صورت زبان رمزگذاری کرد، می‌توانیم یک مسیر قابل درک را برای انسان ایجاد کنیم./ ایسنا

مطالب مرتبط
ارسال نظر
آخرین اخبار