論文の概要: PoserNet: Refining Relative Camera Poses Exploiting Object Detections
- arxiv url: http://arxiv.org/abs/2207.09445v1
- Date: Tue, 19 Jul 2022 17:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:06:51.259107
- Title: PoserNet: Refining Relative Camera Poses Exploiting Object Detections
- Title(参考訳): PoserNet: オブジェクト検出を爆発させるカメラの精製
- Authors: Matteo Taiana, Matteo Toso, Stuart James, Alessio Del Bue
- Abstract要約: 我々は、明示的な意味的オブジェクト検出よりも、ポーズ推定問題を導くために、オブジェクトネス領域を使用する。
本稿では,ペアワイド相対カメラのポーズを近似的に改善する軽量グラフネットワーク Pose Refiner Network (PoserNet) を提案する。
グラフのサイズによって異なる7-Scenesデータセットを評価し、このプロセスが最適化に基づくMotion Averagingアルゴリズムにどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 14.611595909419297
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The estimation of the camera poses associated with a set of images commonly
relies on feature matches between the images. In contrast, we are the first to
address this challenge by using objectness regions to guide the pose estimation
problem rather than explicit semantic object detections. We propose Pose
Refiner Network (PoserNet) a light-weight Graph Neural Network to refine the
approximate pair-wise relative camera poses. PoserNet exploits associations
between the objectness regions - concisely expressed as bounding boxes - across
multiple views to globally refine sparsely connected view graphs. We evaluate
on the 7-Scenes dataset across varied sizes of graphs and show how this process
can be beneficial to optimisation-based Motion Averaging algorithms improving
the median error on the rotation by 62 degrees with respect to the initial
estimates obtained based on bounding boxes. Code and data are available at
https://github.com/IIT-PAVIS/PoserNet.
- Abstract(参考訳): 画像の集合に関連付けられたカメラのポーズの推定は、画像間の特徴マッチングによく依存する。
対照的に、私たちは、明示的なセマンティックオブジェクト検出よりも、ポーズ推定問題を導出するために、オブジェクトネス領域を使用して、この課題に最初に取り組みます。
本稿では,一対関係カメラのポーズを近似的に改善する軽量グラフニューラルネットワークPose Refiner Network(PoserNet)を提案する。
PoserNetは、複数のビューにまたがってオブジェクト性領域(正確には境界ボックスとして表現される)の関連を利用して、疎結合なビューグラフをグローバルに洗練する。
グラフのさまざまなサイズにわたる7-scenesデータセットを評価し,境界ボックスに基づいて得られた初期推定値に対して,回転の中央誤差を62度向上させる最適化に基づく運動平均化アルゴリズムに,このプロセスがいかに有用かを示す。
コードとデータはhttps://github.com/IIT-PAVIS/PoserNetで公開されている。
関連論文リスト
- GOReloc: Graph-based Object-Level Relocalization for Visual SLAM [17.608119427712236]
本稿では,ロボットシステムのオブジェクトレベル再ローカライズのための新しい手法を紹介する。
軽量なオブジェクトレベルマップにおいて、現在のフレーム内の物体検出と3Dオブジェクトとの密接な関連付けにより、カメラセンサのポーズを決定する。
論文 参考訳(メタデータ) (2024-08-15T03:54:33Z) - PRAGO: Differentiable Multi-View Pose Optimization From Objectness Detections [19.211193336526346]
画像の集合からカメラのポーズを微分可能な推定を行うために,Pose-refined Rotation Averaging Graph Optimization (PRAGO)法を提案する。
本手法は, 回転ポーズを再構成し, 絶対ポーズを, 幾何的タスク列の最適化の恩恵を受けながら, 微分可能な方法で再構成する。
その結果,PRAGOは7シーンから抽出した未分化のシーンにおいて,類似の翻訳推定を行いながら,相対的に21%の回転率向上を実現できることがわかった。
論文 参考訳(メタデータ) (2024-03-13T14:42:55Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Epipolar-Guided Deep Object Matching for Scene Change Detection [23.951526610952765]
本稿では,オブジェクト指向変化検出ネットワーク(OBJ-CDNet)について述べる。
移動カメラは、カメラの軌跡とシャッタータイミングの違いにより、毎回異なる視点から画像をキャプチャする。
本稿では,画像ペア間のオブジェクト対応を確立するディープグラフマッチングネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T15:48:40Z) - GeoGraph: Learning graph-based multi-view object detection with
geometric cues end-to-end [10.349116753411742]
複数のビューから静的な都市オブジェクトを検出するエンド・ツー・エンドの学習可能なアプローチを提案する。
提案手法はグラフニューラルネットワーク(GNN)を用いて全ての物体を検出し,その位置を出力する。
我々のGNNは、相対的なポーズと画像の証拠を同時にモデル化し、任意の数の入力ビューを扱うことができる。
論文 参考訳(メタデータ) (2020-03-23T09:40:35Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。