وقتی ربات‌ها انسان‌نما می‌شوند، افراد احساس امنیت می‌کنند - تا زمانی که اینطور نباشد

HumanoidExo، حرکت انسان را به داده‌ای تبدیل می‌کند که به ربات‌ها قدم زدن آموخته

خلاصه اینکه

  • LiDAR، سنسورها و مدل‌های هوش مصنوعی حرکات اسکلت بیرونی را به اقداماتی آماده برای ربات تبدیل می‌کنند.
  • مطالعه نشان می‌دهد ربات‌ها می‌توانند تنها از داده‌های اسکلت خارجی مهارت‌های جدیدی کسب کنند و هزینه‌ها را کاهش دهند.
  • یک واحدی از مدل G1 یونی‌تری بعد از تنها پنج نمایش تلویزیونی یاد گرفت که راه برود.

یک تیم تحقیقاتی از دانشگاه ملی فناوری دفاع چین و شرکت سازنده لوازم خانگی مایدیا قصد دارد یکی از چالش‌برانگیزترین مشکلات رباتیک را حل کند—آموزش ربات‌های انسان‌نما برای حرکت کردن مانند انسان‌ها بدون اتکا به هزاران نمایش پرهزینه.

برای رسیدگی به این مسائل، تیم در یک تحقیق، HumanoidExo معرفی شد کاغذ هفته گذشته منتشر شد این لباس سبک و قابل پوشیدن، حرکت کامل بدن یک فرد (بازوها، تنه و پاها) را ضبط کرده و آن را به داده‌های ساختاری برای یادگیری ربات تبدیل می‌کند.

در آزمایش‌ها، یک یونیتری G1 ربات انسان‌نما که بر روی داده‌ها آموزش دیده است، یاد گرفته تا وظایف پیچیده دستکاری را انجام دهد و حتی بعد از مشاهده تنها چند مثال، راه برود.

“یک گلوگاه قابل توجه در یادگیری سیاست‌های انسان‌نما، به‌دست آوردن مجموعه داده‌های بزرگ و متنوع است، زیرا جمع‌آوری داده‌های واقعی قابل اعتماد همچنان دشوار و از نظر هزینه prohibitive است.” پژوهشگران نوشتند.



ربات‌های انسان‌نما معمولاً در تعمیم حرکت انسانی ناکام می‌مانند زیرا داده‌های آموزشی آن‌ها از ویدیو یا شبیه‌سازی به‌دست می‌آید. HumanoidExo با ضبط حرکت واقعی در فضای مفصلی به این خلأ پاسخ می‌دهد.

این لباس هفت مفصل بازوی انسانی را مستقیماً به پیکربندی ربات منتقل می‌کند، از حسگرهای اینرسی بر روی مچ‌ها استفاده می‌کند و یک واحد LiDAR در قسمت پشت اضافه می‌کند تا تنه و قد شخص پوشنده را ردیابی کند.

آن جریان حرکتی به یک سیستم هوش مصنوعی دو لایه به نام HumanoidExo-VLA وارد می‌شود، مدلی مبتنی بر بینایی-زبان-عمل که وظیفه را تفسیر می‌کند و کنترلی مبتنی بر یادگیری تقویتی که تعادل را در حین حرکت حفظ می‌کند.

طبق گفته محققان، ربات Unitree G1 تنها با پنج نمایش از راه دور و 195 جلسه ثبت شده با پوشش خارجی آموزش دیده است. داده‌های ترکیبی موفقیت در یک وظیفه برداشتن و قرار دادن را از 5٪ به حدود 80٪ افزایش داد، که تقریباً با یک پایه 200 نمایشی مطابقت دارد.

زمانی که خارج‌اسکلتی یک نفر را که به سمتی می‌رفت، به دام انداخت، ربات یاد گرفت که راه برود، حتی با اینکه داده‌های آموزشی مستقیم آن شامل هیچ اطلاعاتی در مورد راه رفتن نبود.

محققان همچنین ادعا می‌کنند که ربات در بخش حرکت‌آفرینی به نرخ موفقیت ۱۰۰٪ دست یافته و می‌تواند به‌طور مداوم اشیاء را دستکاری کند بدون اینکه تعادل خود را از دست بدهد.

در یک آزمایش، محققان به‌طور فیزیکی ربات را از ناحیه کارش دور کردند. ربات با راه رفتن به سمت موقعیت خود بهبود یافت و وظیفه را کامل کرد.

این مطالعه در میان یک شتاب جهانی در تحقیق روی روبات‌های انسان‌نما به دست آمده است.

پروژه NVIDIA گروت دیپ‌مایند گوگل جمنای رباتیک و استارتاپ‌هایی مانند Figure AI در حال رقابت برای مقیاس‌دهی آموزش ربات‌ها هستند.

در همین حال، شرکت سازنده‌ی اسکلت‌ بیرونی واندرکرفت مستقر در پاریس، که محصول خود را به نمایش گذاشت، آتالانته ایکس در الماس‌های تابستانی 2024، به ربات‌های انسان‌نما نیز تمایل پیدا کرده است. روبات انسان‌نمای جدید خود را رونمایی کرد، کالوین ۴۰ ، در ژوئن.

ربات جدید بر پایه فناوری‌های این شرکت است. طراحی اگزواسکلتون آسان‌تر.

“ما در هر جای دنیا روبات‌های humanoid را می‌بینیم—در ایالات متحده، در چین، از تسلا، از Figure AI”، مدیرعامل Wandercraft متیو ماسلین پیشتر گفته بود. رمزگشایی کنید.

او گفت: “برای ما، این همان فناوری است که در 10 سال گذشته در حال توسعه آن بوده‌ایم. زمانی که درخواست‌های بیشتری دریافت کردیم و مردم ما را به آن بازار کشاندند، منطقی بود که به‌موازات اسکلت‌ بیرونی‌مان، یک روبات انسان‌نما خودمختار و آزاد را توسعه دهیم که به همان فناوری تکیه دارد.”

با این حال، رویکرد HumanoidExo مسیر قابل دسترسی‌تری را برای آموزش روبات‌های انسانی پیشنهاد کرد، مسیری که آموزش یک روبات به راه رفتن می‌تواند به زودی به معنای پوشیدن یک لباس و رفتن برای پیاده‌روی باشد.

عمومی هوشمند نشریه خبری

یک سفر هفتگی به دنیای هوش مصنوعی که به وسیله جن، یک مدل هوش مصنوعی تولیدی روایت می‌شود.

لینک منبع


منتشر شده

در

توسط

برچسب‌ها:

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *