論文の概要: Consensus-Driven Uncertainty for Robotic Grasping based on RGB Perception
- arxiv url: http://arxiv.org/abs/2506.20045v1
- Date: Tue, 24 Jun 2025 22:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.5529
- Title: Consensus-Driven Uncertainty for Robotic Grasping based on RGB Perception
- Title(参考訳): RGB知覚に基づくロボットグラフプの合意駆動不確実性
- Authors: Eric C. Joyce, Qianwen Zhao, Nathaniel Burgdorfer, Long Wang, Philippos Mordohai,
- Abstract要約: どちらも対象物の6-DoFポーズを推定し、その推定の不確かさを予測する把握エージェントは、高い不確実性の下で動作しないことを選択することで、タスクの失敗を回避することができる。
本稿では,画像に基づくポーズ推定によって導かれるグリップが,そのグリップが試みられる前に成功するかどうかを予測するための,軽量で深いネットワークのトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 4.719664724709857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep object pose estimators are notoriously overconfident. A grasping agent that both estimates the 6-DoF pose of a target object and predicts the uncertainty of its own estimate could avoid task failure by choosing not to act under high uncertainty. Even though object pose estimation improves and uncertainty quantification research continues to make strides, few studies have connected them to the downstream task of robotic grasping. We propose a method for training lightweight, deep networks to predict whether a grasp guided by an image-based pose estimate will succeed before that grasp is attempted. We generate training data for our networks via object pose estimation on real images and simulated grasping. We also find that, despite high object variability in grasping trials, networks benefit from training on all objects jointly, suggesting that a diverse variety of objects can nevertheless contribute to the same goal.
- Abstract(参考訳): ディープ・オブジェクト・ポーズ・エデュケーターは、自信過剰で悪名高い。
どちらも対象物の6-DoFポーズを推定し、その推定の不確かさを予測する把握エージェントは、高い不確実性の下で動作しないことを選択することで、タスクの失敗を回避することができる。
物体のポーズ推定は改善され、不確実性定量化の研究は進歩を続けているが、ロボットの把握という下流の課題にそれらを関連付ける研究はほとんどない。
本稿では,画像に基づくポーズ推定によって導かれるグリップが,そのグリップが試みられる前に成功するかどうかを予測するための,軽量で深いネットワークのトレーニング手法を提案する。
我々は,実画像のオブジェクトポーズ推定とシミュレートによる把握により,ネットワークのトレーニングデータを生成する。
また,試行錯誤の度合いが高いにも拘わらず,ネットワークはすべてのオブジェクトのトレーニングを共同で行うことにより,さまざまなオブジェクトが同じ目標に貢献できることが示唆された。
関連論文リスト
- Uncertainty Quantification with Deep Ensembles for 6D Object Pose Estimation [4.2603120588176635]
深層アンサンブルを用いた多段6次元オブジェクトポーズ推定手法の不確かさを定量化する手法を提案する。
実装において、SurfEmbを代表として選択する。これは、最も優れた6Dオブジェクトのポーズ推定手法の1つである。
論文 参考訳(メタデータ) (2024-03-12T15:19:25Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Ki-Pode: Keypoint-based Implicit Pose Distribution Estimation of Rigid
Objects [1.209625228546081]
本稿では,新しいポーズ分布推定法を提案する。
オブジェクトのポーズ上の確率分布の暗黙的な定式化は、キーポイントの集合としてのオブジェクトの中間表現から導かれる。
本手法は,YCB-VおよびT-LESSデータセット上での回転分布推定のタスクに基づいて評価されている。
論文 参考訳(メタデータ) (2022-09-20T11:59:05Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Gradient-based Uncertainty for Monocular Depth Estimation [5.7575052885308455]
単眼深度推定では、移動物体や反射材料のような画像コンテキストの乱れは、容易に誤った予測につながる。
本稿では,すでに訓練済みで固定された深度推定モデルに対するポストホック不確実性推定手法を提案する。
提案手法は,ニューラルネットワークの再トレーニングを必要とせずに,KITTI と NYU Depth V2 ベンチマークにおける最先端の不確実性推定結果を実現する。
論文 参考訳(メタデータ) (2022-08-03T12:21:02Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。