論文の概要: Occlusion-Aware Search for Object Retrieval in Clutter
- arxiv url: http://arxiv.org/abs/2011.03334v4
- Date: Tue, 31 Aug 2021 14:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:33:53.735485
- Title: Occlusion-Aware Search for Object Retrieval in Clutter
- Title(参考訳): クラッタにおける物体検索のオクルージョン・アウェアサーチ
- Authors: Wissam Bejjani, Wisdom C. Agboh, Mehmet R. Dogar and Matteo Leonetti
- Abstract要約: 乱雑な棚から対象物を回収する操作タスクに対処する。
対象物が隠された場合、ロボットはそれを回収するために溝を探索しなければならない。
クローズドループにおけるオクルージョン認識動作を生成するためのデータ駆動型ハイブリッドプランナを提案する。
- 参考スコア(独自算出の注目度): 4.693170687870612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the manipulation task of retrieving a target object from a
cluttered shelf. When the target object is hidden, the robot must search
through the clutter for retrieving it. Solving this task requires reasoning
over the likely locations of the target object. It also requires physics
reasoning over multi-object interactions and future occlusions. In this work,
we present a data-driven hybrid planner for generating occlusion-aware actions
in closed-loop. The hybrid planner explores likely locations of the occluded
target object as predicted by a learned distribution from the observation
stream. The search is guided by a heuristic trained with reinforcement learning
to act on observations with occlusions. We evaluate our approach in different
simulation and real-world settings (video available on
https://youtu.be/dY7YQ3LUVQg). The results validate that our approach can
search and retrieve a target object in near real time in the real world while
only being trained in simulation.
- Abstract(参考訳): 乱雑な棚から対象物を回収する操作タスクに対処する。
対象物が隠された場合、ロボットはそれを回収するために溝を探索しなければならない。
このタスクを解決するには、ターゲットオブジェクトの可能性のある位置を推論する必要がある。
マルチオブジェクトインタラクションや将来のオクルージョンに関する物理推論も必要です。
本研究では,クローズドループにおけるオクルージョン認識動作を生成するためのデータ駆動型ハイブリッドプランナを提案する。
ハイブリッドプランナーは、観測ストリームから学習した分布によって予測されるように、隠蔽対象物の位置を探索する。
探索は、強化学習で訓練されたヒューリスティックが指導し、オクルージョンによる観察を行う。
我々は、異なるシミュレーションと実世界の設定でアプローチを評価した(https://youtu.be/dY7YQ3LUVQg)。
その結果,本手法は実世界の対象物体をほぼリアルタイムで探索・検索し,シミュレーションでのみ学習できることが確認された。
関連論文リスト
- SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Generalized Object Search [0.9137554315375919]
この論文は、不確実な3次元環境における多目的探索のための方法とシステムを開発する。
ロボットに依存しない,環境に依存しない3次元物体探索システムを構築した。
私はBoston Dynamics Spotロボット、Kinova MOVOロボット、Universal Robots UR5eロボットアームにデプロイしました。
論文 参考訳(メタデータ) (2023-01-24T16:41:36Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - SafePicking: Learning Safe Object Extraction via Object-Level Mapping [19.502587411252946]
本稿では,オブジェクトレベルのマッピングと学習に基づくモーションプランニングを統合したSafePickingを提案する。
計画は、予測されたポーズの観測を受信する深いQネットワークと、動き軌跡を出力する深さに基づく高さマップを学習することによって行われる。
この結果から,ポーズの観察と深度感の融合により,モデルの性能とロバスト性が向上することが示唆された。
論文 参考訳(メタデータ) (2022-02-11T18:55:10Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Visuomotor Mechanical Search: Learning to Retrieve Target Objects in
Clutter [43.668395529368354]
本稿では,教師支援による探索,特権情報による批判,中間レベルの表現を組み合わせた新しい深部RL手順を提案する。
我々のアプローチは、ベースラインやアブレーションよりも高速に学習し、より効率的な解の発見に収束する。
論文 参考訳(メタデータ) (2020-08-13T18:23:00Z) - Follow the Object: Curriculum Learning for Manipulation Tasks with
Imagined Goals [8.98526174345299]
本稿では,想像対象目標の概念を紹介する。
特定の操作タスクに対して、興味のある対象は、まず自分自身で所望の目標位置に到達するように訓練される。
オブジェクトポリシーは、可塑性オブジェクト軌跡の予測モデルを構築するために利用されます。
提案するアルゴリズムであるFollow the Objectは、7つのMuJoCo環境で評価されている。
論文 参考訳(メタデータ) (2020-08-05T12:19:14Z) - Semantic Linking Maps for Active Visual Object Search [14.573513188682183]
我々はランドマークと対象物の間の共通空間関係に関する背景知識を利用する。
本稿では,セマンティックリンクマップ(SLiM)モデルの導入により,アクティブなビジュアルオブジェクト探索戦略を提案する。
SLiMに基づいて、ターゲットオブジェクトを探索する次の最適なポーズを選択するハイブリッド検索戦略について述べる。
論文 参考訳(メタデータ) (2020-06-18T18:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。