論文の概要: SafePicking: Learning Safe Object Extraction via Object-Level Mapping
- arxiv url: http://arxiv.org/abs/2202.05832v1
- Date: Fri, 11 Feb 2022 18:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:24:44.971463
- Title: SafePicking: Learning Safe Object Extraction via Object-Level Mapping
- Title(参考訳): SafePicking: オブジェクトレベルマッピングによる安全なオブジェクト抽出の学習
- Authors: Kentaro Wada, Stephen James, Andrew J. Davison
- Abstract要約: 本稿では,オブジェクトレベルのマッピングと学習に基づくモーションプランニングを統合したSafePickingを提案する。
計画は、予測されたポーズの観測を受信する深いQネットワークと、動き軌跡を出力する深さに基づく高さマップを学習することによって行われる。
この結果から,ポーズの観察と深度感の融合により,モデルの性能とロバスト性が向上することが示唆された。
- 参考スコア(独自算出の注目度): 19.502587411252946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots need object-level scene understanding to manipulate objects while
reasoning about contact, support, and occlusion among objects. Given a pile of
objects, object recognition and reconstruction can identify the boundary of
object instances, giving important cues as to how the objects form and support
the pile. In this work, we present a system, SafePicking, that integrates
object-level mapping and learning-based motion planning to generate a motion
that safely extracts occluded target objects from a pile. Planning is done by
learning a deep Q-network that receives observations of predicted poses and a
depth-based heightmap to output a motion trajectory, trained to maximize a
safety metric reward. Our results show that the observation fusion of poses and
depth-sensing gives both better performance and robustness to the model. We
evaluate our methods using the YCB objects in both simulation and the real
world, achieving safe object extraction from piles.
- Abstract(参考訳): ロボットは、オブジェクト間の接触、サポート、閉塞を推論しながらオブジェクトを操作するために、オブジェクトレベルのシーン理解が必要である。
オブジェクトの山が与えられると、オブジェクト認識とリコンストラクションはオブジェクトインスタンスの境界を識別し、オブジェクトがどのようにしてパイルを形成し、サポートするかに関する重要な手がかりを与える。
本研究では,オブジェクトレベルのマッピングと学習に基づく動作計画を統合したsafepickingというシステムを提案する。
計画は、予測されたポーズの観測を受信する深いQネットワークと、安全基準報酬を最大化するために訓練された動き軌跡を出力する深さに基づく高さマップを学習することによって行われる。
その結果,ポーズの観察と奥行き検出の融合により,モデルの性能と頑健性が向上した。
シミュレーションと実世界の双方でYCBオブジェクトを用いた手法の評価を行い,杭からの安全な対象抽出を実現した。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Object criticality for safer navigation [1.565361244756411]
対象検出器が与えられた場合、その関連性に基づいてオブジェクトをフィルタリングし、関連するオブジェクトの欠落のリスクを低減し、危険な軌道の可能性を低減し、一般的に軌道の質を向上させる。
対象物検知器を与えられた場合、その関連性に基づいてオブジェクトをフィルタリングし、失う対象のリスクを低減し、危険な軌道の可能性を低減し、一般的に軌道の質を向上させる。
論文 参考訳(メタデータ) (2024-04-25T09:02:22Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - An Object SLAM Framework for Association, Mapping, and High-Level Tasks [12.62957558651032]
本稿では,オブジェクト指向認識とオブジェクト指向ロボットタスクに焦点を当てた包括的オブジェクトSLAMフレームワークを提案する。
提案したオブジェクトSLAMフレームワークを効率よく評価するために,さまざまな公開データセットと実世界の結果が使用されている。
論文 参考訳(メタデータ) (2023-05-12T08:10:14Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Object-Driven Active Mapping for More Accurate Object Pose Estimation
and Robotic Grasping [5.385583891213281]
このフレームワークは、オブジェクトSLAMシステム上に構築され、同時多目的ポーズ推定プロセスと統合される。
マッピングモジュールと探索戦略を組み合わせることにより、ロボットの把握と互換性のある正確なオブジェクトマップを生成することができる。
論文 参考訳(メタデータ) (2020-12-03T09:36:55Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。