論文の概要: Towards Disturbance-Free Visual Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2112.12612v1
- Date: Fri, 17 Dec 2021 22:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 13:13:38.877424
- Title: Towards Disturbance-Free Visual Mobile Manipulation
- Title(参考訳): 外乱のないビジュアルモバイルマニピュレーションを目指して
- Authors: Tianwei Ni, Kiana Ehsani, Luca Weihs, Jordi Salvador
- Abstract要約: 本研究では,新しい外乱回避手法を開発し,その中心に外乱予測の補助的課題について述べる。
Manipulathor を用いた実験の結果,新規な物体を用いた実験では,61.7% から85.6% に改善した。
- 参考スコア(独自算出の注目度): 11.738161077441104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embodied AI has shown promising results on an abundance of robotic tasks in
simulation, including visual navigation and manipulation. The prior work
generally pursues high success rates with shortest paths while largely ignoring
the problems caused by collision during interaction. This lack of
prioritization is understandable: in simulated environments there is no
inherent cost to breaking virtual objects. As a result, well-trained agents
frequently have catastrophic collision with objects despite final success. In
the robotics community, where the cost of collision is large, collision
avoidance is a long-standing and crucial topic to ensure that robots can be
safely deployed in the real world. In this work, we take the first step towards
collision/disturbance-free embodied AI agents for visual mobile manipulation,
facilitating safe deployment in real robots. We develop a new
disturbance-avoidance methodology at the heart of which is the auxiliary task
of disturbance prediction. When combined with a disturbance penalty, our
auxiliary task greatly enhances sample efficiency and final performance by
knowledge distillation of disturbance into the agent. Our experiments on
ManipulaTHOR show that, on testing scenes with novel objects, our method
improves the success rate from 61.7% to 85.6% and the success rate without
disturbance from 29.8% to 50.2% over the original baseline. Extensive ablation
studies show the value of our pipelined approach. Project site is at
https://sites.google.com/view/disturb-free
- Abstract(参考訳): embodied aiは、ビジュアルナビゲーションや操作など、シミュレーションにおけるロボットタスクの豊富さに有望な結果を示している。
先行研究は一般的に、最も短い経路で高い成功率を追求する一方で、相互作用中の衝突に起因する問題を無視する。
シミュレーション環境では、仮想オブジェクトを壊すのに固有のコストはありません。
結果として、訓練されたエージェントは、最終的な成功にもかかわらず、しばしば天体と壊滅的な衝突を起こす。
衝突のコストが大きいロボティクスのコミュニティでは、ロボットが現実世界に安全に配備されることを確実にするために、衝突回避は長年、かつ重要なトピックである。
本研究では,視覚的移動操作のための衝突・妨害のないAIエージェントへの第一歩を踏み出し,実際のロボットへの安全な配置を容易にする。
本研究は,外乱予測の補助課題である新しい外乱回避手法を心部で開発する。
外乱ペナルティと組み合わせると、補助作業は、エージェントへの外乱の知識蒸留によるサンプル効率と最終性能を大幅に向上させる。
マニピュラトール実験では,新しい物体を用いた実験では,成功率を61.7%から85.6%に改善し,混乱のない成功率は29.8%から50.2%に向上した。
広範なアブレーション研究はパイプライン化アプローチの価値を示している。
プロジェクトサイトはhttps://sites.google.com/view/disturb-free
関連論文リスト
- HEIGHT: Heterogeneous Interaction Graph Transformer for Robot Navigation in Crowded and Constrained Environments [8.974071308749007]
廊下や家具などの環境制約のある密集した対話型群集におけるロボットナビゲーションの問題点について検討する。
従来の手法ではエージェントと障害物間のあらゆる種類の相互作用を考慮できないため、安全で非効率なロボット経路につながる。
本稿では,ロボットナビゲーションポリシーを強化学習で学習するための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T00:56:35Z) - Robot Navigation with Entity-Based Collision Avoidance using Deep Reinforcement Learning [0.0]
本稿では,ロボットのさまざまなエージェントや障害物との相互作用を高める新しい手法を提案する。
このアプローチでは、エンティティタイプに関する情報を使用し、衝突回避を改善し、より安全なナビゲーションを保証する。
本研究では,大人,自転車乗り,子供,静的障害物など,さまざまな物体との衝突に対してロボットをペナルティ化する新たな報酬関数を提案する。
論文 参考訳(メタデータ) (2024-08-26T11:16:03Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Motion Prediction with Gaussian Processes for Safe Human-Robot Interaction in Virtual Environments [1.677718351174347]
衝突事故のリスクを最小限に抑えるため、共同作業型ロボットは人間との共同作業が安全でなければならない。
本研究の目的は,協調作業ロボットの安全性を向上しつつ,協調作業ロボットの効率を向上させることである。
論文 参考訳(メタデータ) (2024-05-15T05:51:41Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Passing Through Narrow Gaps with Deep Reinforcement Learning [2.299414848492227]
本稿では,小さな隙間を自律的に航行する深層強化学習手法を提案する。
我々はまず,ロボットとギャップとの接触が必要な小さなギャップを乗り越えるために,ギャップ行動ポリシーを学習する。
シミュレーション実験では,操作者が手動でギャップ動作を動作させると,93%の成功率が得られる。
実際のロボット実験では、手動アクティベーションで73%、自律的な行動選択で40%の成功率を達成した。
論文 参考訳(メタデータ) (2021-03-06T00:10:41Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。