論文の概要: Learning Vision-based Pursuit-Evasion Robot Policies
- arxiv url: http://arxiv.org/abs/2308.16185v1
- Date: Wed, 30 Aug 2023 17:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 12:34:11.019675
- Title: Learning Vision-based Pursuit-Evasion Robot Policies
- Title(参考訳): 視覚に基づく探索ロボット政策の学習
- Authors: Andrea Bajcsy, Antonio Loquercio, Ashish Kumar, Jitendra Malik
- Abstract要約: 我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
- 参考スコア(独自算出の注目度): 54.52536214251999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning strategic robot behavior -- like that required in pursuit-evasion
interactions -- under real-world constraints is extremely challenging. It
requires exploiting the dynamics of the interaction, and planning through both
physical state and latent intent uncertainty. In this paper, we transform this
intractable problem into a supervised learning problem, where a
fully-observable robot policy generates supervision for a partially-observable
one. We find that the quality of the supervision signal for the
partially-observable pursuer policy depends on two key factors: the balance of
diversity and optimality of the evader's behavior and the strength of the
modeling assumptions in the fully-observable policy. We deploy our policy on a
physical quadruped robot with an RGB-D camera on pursuit-evasion interactions
in the wild. Despite all the challenges, the sensing constraints bring about
creativity: the robot is pushed to gather information when uncertain, predict
intent from noisy measurements, and anticipate in order to intercept. Project
webpage: https://abajcsy.github.io/vision-based-pursuit/
- Abstract(参考訳): 現実の制約の下で戦略的ロボットの行動(例えば、追従回避の相互作用に必要なもの)を学ぶことは極めて難しい。
相互作用のダイナミクスを活用し、物理的状態と潜在意図の不確実性の両方を通じて計画する必要がある。
本稿では,この難解な問題を教師付き学習問題に変換し,完全観測可能なロボットポリシーが部分的に観測可能なロボットの監督を生成する。
部分的に観測可能な追跡ポリシーの監視信号の品質は,回避者の行動の多様性と最適性のバランスと,完全に観測可能な政策におけるモデリング仮定の強さの2つの重要な要因に依存している。
rgb-dカメラを内蔵した物理的四足歩行ロボットに、野生の追跡・脱出行動に関するポリシーを展開する。
ロボットは不確実な時に情報を集め、ノイズ測定から意図を予測し、傍受するために予測される。
プロジェクトWebページ: https://abajcsy.github.io/vision-based-pursuit/
関連論文リスト
- Grounding Robot Policies with Visuomotor Language Guidance [15.774237279917594]
ロボットポリシーを現在の状況に基盤付けるためのエージェントベースのフレームワークを提案する。
提案するフレームワークは、特定の役割のために設計された会話エージェントのセットで構成されている。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Robotic Control via Embodied Chain-of-Thought Reasoning [86.6680905262442]
学習したロボット制御ポリシーの鍵となる制限は、トレーニングデータの外部で一般化できないことである。
視覚言語行動モデル(VLA)に関する最近の研究は、大規模なインターネット事前学習型視覚言語モデルを使用することで、その堅牢性と一般化能力を大幅に向上させることができることを示した。
ロボットの動作を予測する前に、VLAに対して、計画、サブタスク、動作、視覚的接地機能について複数の推論を行うために、VLAに対してEmbodied Chain-of-Thought Reasoning (ECoT)を導入する。
論文 参考訳(メタデータ) (2024-07-11T17:31:01Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Deception Game: Closing the Safety-Learning Loop in Interactive Robot
Autonomy [7.915956857741506]
既存の安全手法は、ロボットが実行時に学習し適応する能力を無視することが多く、過度に保守的な行動を引き起こす。
本稿では,ロボットの進化する不確実性を明示的に考慮した安全制御ポリシを合成するための,新しいクローズドループパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-03T20:34:01Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Sim2Real for Peg-Hole Insertion with Eye-in-Hand Camera [58.720142291102135]
シミュレーションを用いてペグホール挿入問題を学習し,学習したモデルを実ロボットに転送する。
本稿では,RGB-Dとジョイント情報(プロレセプション)のみを取り入れたトランスファーポリシーが,実際のロボットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-05-29T05:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。