論文の概要: OSSID: Online Self-Supervised Instance Detection by (and for) Pose
Estimation
- arxiv url: http://arxiv.org/abs/2201.07309v1
- Date: Tue, 18 Jan 2022 20:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 13:45:26.600480
- Title: OSSID: Online Self-Supervised Instance Detection by (and for) Pose
Estimation
- Title(参考訳): OSSID: Pose Estimation によるオンライン自己監視型インスタンス検出
- Authors: Qiao Gu, Brian Okorn, David Held
- Abstract要約: 多くのロボット操作アルゴリズムにはリアルタイムなオブジェクトポーズ推定が必要である。
高速検出アルゴリズムの訓練を自己監督するために、スローゼロショットポーズ推定器を利用するOSSIDフレームワークを提案する。
この自己教師型トレーニングは,既存のゼロショット検出手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 17.78557307620686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time object pose estimation is necessary for many robot manipulation
algorithms. However, state-of-the-art methods for object pose estimation are
trained for a specific set of objects; these methods thus need to be retrained
to estimate the pose of each new object, often requiring tens of GPU-days of
training for optimal performance. \revisef{In this paper, we propose the OSSID
framework,} leveraging a slow zero-shot pose estimator to self-supervise the
training of a fast detection algorithm. This fast detector can then be used to
filter the input to the pose estimator, drastically improving its inference
speed. We show that this self-supervised training exceeds the performance of
existing zero-shot detection methods on two widely used object pose estimation
and detection datasets, without requiring any human annotations. Further, we
show that the resulting method for pose estimation has a significantly faster
inference speed, due to the ability to filter out large parts of the image.
Thus, our method for self-supervised online learning of a detector (trained
using pseudo-labels from a slow pose estimator) leads to accurate pose
estimation at real-time speeds, without requiring human annotations.
Supplementary materials and code can be found at
https://georgegu1997.github.io/OSSID/
- Abstract(参考訳): 多くのロボット操作アルゴリズムにはリアルタイムオブジェクトポーズ推定が必要である。
しかし、オブジェクトのポーズ推定のための最先端の手法は特定のオブジェクトに対して訓練されるため、これらの手法は各新しいオブジェクトのポーズを推定するために再訓練する必要がある。
本稿では,高速検出アルゴリズムの学習を自己監視するために,スローゼロショットポーズ推定器を用いたossidフレームワークを提案する。
この高速検出器は、ポーズ推定器への入力をフィルタリングし、推論速度を大幅に改善する。
この自己教師付きトレーニングは,人間のアノテーションを必要とせずに,広く使用されている2つのオブジェクトポーズ推定および検出データセットにおいて,既存のゼロショット検出手法の性能を上回っている。
さらに, ポーズ推定の手法は, 画像の大部分をフィルタできるため, 推定速度が大幅に速くなることを示す。
そこで本手法は,検知器の自己教師型オンライン学習(スローポーズ推定器からの擬似ラベルを用いた学習)において,人間のアノテーションを必要とせず,リアルタイムなポーズ推定を行う。
追加資料とコードはhttps://georgegu1997.github.io/OSSID/にある。
関連論文リスト
- Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification [0.0]
ビンピッキングのためのポーズ推定の自己教師型微調整法を提案する。
本手法により,手動ラベリングを使わずにトレーニングデータを自動的に取得できる。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
論文 参考訳(メタデータ) (2024-09-17T19:26:21Z) - oTTC: Object Time-to-Contact for Motion Estimation in Autonomous Driving [4.707950656037167]
自律運転システムは衝突を避け安全に運転するために 物体検出に大きく依存している
モノクロ3Dオブジェクト検出器は、カメラ画像から3D境界ボックスと物体速度を直接予測することでこの問題を解決しようとする。
最近の研究では、ピクセルごとの時間対接触を推定し、速度と深さの組み合わせよりも効果的に測定できることが示唆されている。
オブジェクト検出モデルを拡張したオブジェクトごとの時間対接触推定を提案し,各オブジェクトの時間対接触属性を付加的に予測する。
論文 参考訳(メタデータ) (2024-05-13T12:34:18Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - VideoPose: Estimating 6D object pose from videos [14.210010379733017]
我々は、畳み込みニューラルネットワークを用いて、ビデオから直接オブジェクトのポーズを推定する、単純だが効果的なアルゴリズムを導入する。
提案するネットワークは、トレーニング済みの2Dオブジェクト検出器を入力として、リカレントニューラルネットワークを介して視覚的特徴を集約し、各フレームで予測を行う。
YCB-Videoデータセットの実験的評価から,本手法は最先端のアルゴリズムと同等であることがわかった。
論文 参考訳(メタデータ) (2021-11-20T20:57:45Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。