論文の概要: Iterative Corresponding Geometry: Fusing Region and Depth for Highly
Efficient 3D Tracking of Textureless Objects
- arxiv url: http://arxiv.org/abs/2203.05334v1
- Date: Thu, 10 Mar 2022 12:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 20:30:49.355465
- Title: Iterative Corresponding Geometry: Fusing Region and Depth for Highly
Efficient 3D Tracking of Textureless Objects
- Title(参考訳): 反復対応幾何:テクスチャレス物体の高効率3次元追跡のための融合領域と深さ
- Authors: Manuel Stoiber, Martin Sundermeyer, Rudolph Triebel
- Abstract要約: ICGは領域と深度情報を融合させる新しい確率的トラッカーであり、物体形状のみを必要とする。
本手法では, 対応線を配置し, ポーズを反復的に洗練する。
YCB-Video、OPT、Choiデータセットの実験は、テクスチャ化されたオブジェクトであっても、我々のアプローチが現在の技術よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 25.448657318818764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking objects in 3D space and predicting their 6DoF pose is an essential
task in computer vision. State-of-the-art approaches often rely on object
texture to tackle this problem. However, while they achieve impressive results,
many objects do not contain sufficient texture, violating the main underlying
assumption. In the following, we thus propose ICG, a novel probabilistic
tracker that fuses region and depth information and only requires the object
geometry. Our method deploys correspondence lines and points to iteratively
refine the pose. We also implement robust occlusion handling to improve
performance in real-world settings. Experiments on the YCB-Video, OPT, and Choi
datasets demonstrate that, even for textured objects, our approach outperforms
the current state of the art with respect to accuracy and robustness. At the
same time, ICG shows fast convergence and outstanding efficiency, requiring
only 1.3 ms per frame on a single CPU core. Finally, we analyze the influence
of individual components and discuss our performance compared to deep
learning-based methods. The source code of our tracker is publicly available.
- Abstract(参考訳): 3D空間における物体の追跡と6DoFのポーズの予測は、コンピュータビジョンにおいて重要な課題である。
最先端のアプローチはしばしばこの問題に取り組むためにオブジェクトテクスチャに依存します。
しかし、印象的な結果が得られる一方で、多くのオブジェクトは十分なテクスチャを含んでおらず、主な前提に違反している。
そこで本研究では,領域と深度情報を融合し,物体形状のみを必要とする新しい確率的トラッカーであるICGを提案する。
本手法は対応線を配置し,ポーズを反復的に洗練する。
また,実環境における性能を向上させるため,ロバストなオクルージョン処理も実装した。
YCB-Video、OPT、Choiデータセットの実験では、テクスチャ化されたオブジェクトであっても、精度とロバスト性に関して、我々のアプローチは最先端の技術を上回ります。
同時に、ICGは高速収束と優れた効率を示し、単一のCPUコア上で1フレームあたり1.3msしか必要としない。
最後に,各要素の影響を分析し,深層学習法と比較して性能について考察する。
トラッカーのソースコードは公開されています。
関連論文リスト
- Perspective-aware Convolution for Monocular 3D Object Detection [2.33877878310217]
画像の長距離依存性をキャプチャする新しい視点対応畳み込み層を提案する。
画像画素ごとの深度軸に沿った特徴を抽出するために畳み込みカーネルを強制することにより、パースペクティブ情報をネットワークアーキテクチャに組み込む。
我々は、KITTI3Dデータセットの性能向上を実証し、簡単なベンチマークで平均23.9%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-24T17:25:36Z) - NeurOCS: Neural NOCS Supervision for Monocular 3D Object Localization [80.3424839706698]
入力として3Dボックスをインスタンスマスクとして使用するNeurOCSを提案する。
われわれのアプローチは、実際の運転シーンから直接カテゴリレベルの形状を学習する際の洞察に依存している。
我々は、オブジェクト中心の視点からオブジェクト座標をより効果的に学習するための重要な設計選択を行う。
論文 参考訳(メタデータ) (2023-05-28T16:18:41Z) - PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR
Point Clouds [29.15589024703907]
本稿では,計算資源の割り当ての観点から,局所的な点集合体を再考する。
最も単純な柱ベースのモデルは、精度とレイテンシの両方を考慮して驚くほどよく機能することがわかった。
本研究は,3次元物体検出の高性能化のために,詳細な幾何学的モデリングが不可欠である,という一般的な直観に挑戦する。
論文 参考訳(メタデータ) (2023-05-08T17:59:14Z) - 3D Video Object Detection with Learnable Object-Centric Global
Optimization [65.68977894460222]
対応性に基づく最適化は3次元シーン再構成の基盤となるが、3次元ビデオオブジェクト検出では研究されていない。
オブジェクト中心の時間対応学習と特徴量付きオブジェクトバンドル調整を備えた、エンドツーエンドで最適化可能なオブジェクト検出器であるBA-Detを提案する。
論文 参考訳(メタデータ) (2023-03-27T17:39:39Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - Graph-DETR3D: Rethinking Overlapping Regions for Multi-View 3D Object
Detection [17.526914782562528]
グラフ構造学習(GSL)による多視点画像情報を自動的に集約するグラフDETR3Dを提案する。
我々の最良のモデルは、nuScenesテストリーダーボード上で49.5 NDSを達成し、様々な画像ビュー3Dオブジェクト検出器と比較して新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2022-04-25T12:10:34Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Factor Graph based 3D Multi-Object Tracking in Point Clouds [8.411514688735183]
明示的および固定的な代入に依存しない新しい最適化に基づくアプローチを提案する。
我々は、実世界のKITTI追跡データセットの性能を実証し、多くの最先端アルゴリズムよりも優れた結果を得る。
論文 参考訳(メタデータ) (2020-08-12T13:34:46Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。