論文の概要: Self-supervised cost of transport estimation for multimodal path planning
- arxiv url: http://arxiv.org/abs/2412.06101v1
- Date: Sun, 08 Dec 2024 23:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:56:19.938359
- Title: Self-supervised cost of transport estimation for multimodal path planning
- Title(参考訳): マルチモーダル経路計画のための移動推定の自己監督的コスト
- Authors: Vincent Gherold, Ioannis Mandralis, Eric Sihite, Adarsh Salagame, Alireza Ramezani, Morteza Gharib,
- Abstract要約: 本研究では,ロボットが周囲の移動コストを見積もることができる自己教師型学習手法を開発した。
本手法は,マルチモーダルモビリティ・モルフォボット(M4)に応用し,その環境を走行・飛行・セグウェイ・クロールするロボットに適用する。
本稿では,Nvidia Jetson Orin Nano ロボット・コンピュータ・ユニットに実装した低計算コストについて述べる。
- 参考スコア(独自算出の注目度): 5.097982452032821
- License:
- Abstract: Autonomous robots operating in real environments are often faced with decisions on how best to navigate their surroundings. In this work, we address a particular instance of this problem: how can a robot autonomously decide on the energetically optimal path to follow given a high-level objective and information about the surroundings? To tackle this problem we developed a self-supervised learning method that allows the robot to estimate the cost of transport of its surroundings using only vision inputs. We apply our method to the multi-modal mobility morphobot (M4), a robot that can drive, fly, segway, and crawl through its environment. By deploying our system in the real world, we show that our method accurately assigns different cost of transports to various types of environments e.g. grass vs smooth road. We also highlight the low computational cost of our method, which is deployed on an Nvidia Jetson Orin Nano robotic compute unit. We believe that this work will allow multi-modal robotic platforms to unlock their full potential for navigation and exploration tasks.
- Abstract(参考訳): 現実の環境で動く自律ロボットは、環境をどうナビゲートするかという決定に直面していることが多い。
この研究では、この問題の特定の事例に対処する: ロボットが高レベルな目標と環境に関する情報を与えられたときに、どのようにしてエネルギー的に最適な経路を自律的に決定できるか?
この問題に対処するために,視覚入力のみを用いて,ロボットが周囲の移動コストを見積もることができる自己教師型学習手法を開発した。
本手法は,マルチモーダルモビリティ・モルフォボット(M4)に応用し,その環境を走行・飛行・セグウェイ・クロールするロボットに適用する。
実環境にシステムを展開することで,草地やスムーズな道路など,様々な環境への輸送コストを正確に割り振ることができることを示す。
また,Nvidia Jetson Orin Nano ロボット・コンピュータ・ユニットに実装した計算コストの低さを強調した。
この作業により、マルチモーダルなロボットプラットフォームが、ナビゲーションと探索タスクの可能性を解き放つことができると信じています。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - ALAN: Autonomously Exploring Robotic Agents in the Real World [28.65531878636441]
ALANは自律的なロボットエージェントで、ほとんどトレーニングや対話の時間なしで現実世界でタスクを実行できる。
これは、物体の動きを反映し、ロボットの位置の変化を無視する環境変化を測定することで実現される。
我々は,ロボットが操作スキルを効率的に探索し,発見することを可能にするために,2つの異なる実世界のプレイキッチン設定に対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-02-13T18:59:09Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Semantics-Aware Locomotion Skills from Human Demonstration [35.996425893483796]
四足歩行ロボットの知覚からセマンティクスを意識したロコモーションスキルを学習するフレームワークを提案する。
本フレームワークは,認識された地形意味に基づいてロボットの速度と歩行を調整し,失敗することなく6km以上歩けるようにする。
論文 参考訳(メタデータ) (2022-06-27T21:08:03Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots [0.0]
視覚情報のみを用いてシーンを理解できる小型の自律走行車を開発した。
我々は、ロボットと自動運転の現在の状況と、この分野で見られる技術的、倫理的制約について論じる。
論文 参考訳(メタデータ) (2021-11-15T01:31:28Z) - End-to-end Interpretable Neural Motion Planner [78.69295676456085]
複雑な都市環境での自律走行学習のためのニューラルモーションプランナー(NMP)を提案する。
我々は,生lidarデータとhdマップを入力とし,解釈可能な中間表現を生成する全体モデルを設計した。
北米のいくつかの都市で収集された実世界の運転データにおける我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-01-17T14:16:12Z) - Visual Navigation in Real-World Indoor Environments Using End-to-End
Deep Reinforcement Learning [2.7071541526963805]
そこで本研究では,実際のロボットにトレーニング済みポリシーを直接展開する手法を提案する。
このポリシーは、現実世界の環境から収集された画像に基づいて微調整される。
30回のナビゲーション実験では、このロボットは86.7%以上のケースで目標の0.3メートル付近に到達した。
論文 参考訳(メタデータ) (2020-10-21T11:22:30Z) - Autonomous Planning Based on Spatial Concepts to Tidy Up Home
Environments with Service Robots [5.739787445246959]
本研究では,確率的生成モデルのパラメータを学習することにより,対象物の順序や位置を効率的に推定できる新しい計画法を提案する。
このモデルにより、ロボットは、Tidied環境で収集されたマルチモーダルセンサ情報を用いて、オブジェクトと場所の共起確率の分布を学習することができる。
我々は,世界ロボットサミット2018国際ロボティクスコンペティションのTidy Up Hereタスクの条件を再現する実験シミュレーションにより,提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-02-10T11:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。