論文の概要: VIPose: Real-time Visual-Inertial 6D Object Pose Tracking
- arxiv url: http://arxiv.org/abs/2107.12617v1
- Date: Tue, 27 Jul 2021 06:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 00:23:49.210547
- Title: VIPose: Real-time Visual-Inertial 6D Object Pose Tracking
- Title(参考訳): VIPose:リアルタイムビジュアル慣性6Dオブジェクト追跡
- Authors: Rundong Ge, Giuseppe Loianno
- Abstract要約: 本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
- 参考スコア(独自算出の注目度): 3.44942675405441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the 6D pose of objects is beneficial for robotics tasks such as
transportation, autonomous navigation, manipulation as well as in scenarios
beyond robotics like virtual and augmented reality. With respect to single
image pose estimation, pose tracking takes into account the temporal
information across multiple frames to overcome possible detection
inconsistencies and to improve the pose estimation efficiency. In this work, we
introduce a novel Deep Neural Network (DNN) called VIPose, that combines
inertial and camera data to address the object pose tracking problem in
real-time. The key contribution is the design of a novel DNN architecture which
fuses visual and inertial features to predict the objects' relative 6D pose
between consecutive image frames. The overall 6D pose is then estimated by
consecutively combining relative poses. Our approach shows remarkable pose
estimation results for heavily occluded objects that are well known to be very
challenging to handle by existing state-of-the-art solutions. The effectiveness
of the proposed approach is validated on a new dataset called VIYCB with RGB
image, IMU data, and accurate 6D pose annotations created by employing an
automated labeling technique. The approach presents accuracy performances
comparable to state-of-the-art techniques, but with additional benefit to be
real-time.
- Abstract(参考訳): 物体の6d姿勢の推定は、移動、自律ナビゲーション、操作などのロボティクスタスクや、バーチャルや拡張現実のようなロボティクス以外のシナリオに有用である。
単一画像ポーズ推定に関して、ポーズ追跡は複数のフレームにまたがる時間情報を考慮して、検出の不整合を克服し、ポーズ推定効率を向上させる。
本研究では、慣性とカメラデータを組み合わせた新しいディープニューラルネットワークVIPoseを導入し、オブジェクトのポーズ追跡問題にリアルタイムで対処する。
重要な貢献は、連続した画像フレーム間のオブジェクトの相対的な6Dポーズを予測するために、視覚的特徴と慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
全体の6dポーズは、相対的なポーズを連続して組み合わせて見積もる。
提案手法は,既存の最先端のソリューションでは処理が困難であることがよく知られている,難易度の高いオブジェクトに対する顕著なポーズ推定結果を示す。
提案手法の有効性は、RGB画像、IMUデータ、自動ラベリング技術を用いて作成した正確な6Dポーズアノテーションを備えたVIYCBと呼ばれる新しいデータセットで検証される。
このアプローチは最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらにメリットがある。
関連論文リスト
- Hierarchical Graph Neural Networks for Proprioceptive 6D Pose Estimation
of In-hand Objects [1.8263882169310044]
マルチモーダル(ビジョンとタッチ)データを組み合わせた階層型グラフニューラルネットワークアーキテクチャを提案する。
また、グラフベースのオブジェクト表現を学習するために、モダリティ内および横断的に情報を流す階層的なメッセージパッシング操作を導入する。
論文 参考訳(メタデータ) (2023-06-28T01:18:53Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - se(3)-TrackNet: Data-driven 6D Pose Tracking by Calibrating Image
Residuals in Synthetic Domains [12.71983073907091]
本研究では,長期6次元ポーズトラッキングのためのデータ駆動型最適化手法を提案する。
本研究の目的は、現在のRGB-D観測と、前回の推定値と対象物のモデルに基づいて条件付けされた合成画像から、最適な相対的なポーズを特定することである。
提案手法は, 実画像を用いて訓練した場合でも, 常に頑健な評価を達成し, 代替品よりも優れる。
論文 参考訳(メタデータ) (2020-07-27T21:09:36Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。