論文の概要: Cross-Camera View-Overlap Recognition
- arxiv url: http://arxiv.org/abs/2208.11661v1
- Date: Wed, 24 Aug 2022 16:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:05:26.004030
- Title: Cross-Camera View-Overlap Recognition
- Title(参考訳): クロスカメラビューオーバーラップ認識
- Authors: Alessio Xompero, Andrea Cavallaro
- Abstract要約: 本稿では、参照3Dマップを必要とせずに、自由に動くカメラ間で動作可能な分散ビューオーバラップ認識フレームワークを提案する。
ビューオーバーラップはビューマッチングと幾何学的検証によって認識され、間違ったマッチしたビューを破棄する。
- 参考スコア(独自算出の注目度): 42.75360135783111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a decentralised view-overlap recognition framework that operates
across freely moving cameras without the need of a reference 3D map. Each
camera independently extracts, aggregates into a hierarchical structure, and
shares feature-point descriptors over time. A view overlap is recognised by
view-matching and geometric validation to discard wrongly matched views. The
proposed framework is generic and can be used with different descriptors. We
conduct the experiments on publicly available sequences as well as new
sequences we collected with hand-held cameras. We show that Oriented FAST and
Rotated BRIEF (ORB) features with Bags of Binary Words within the proposed
framework lead to higher precision and a higher or similar accuracy compared to
NetVLAD, RootSIFT, and SuperGlue.
- Abstract(参考訳): 本研究では,参照3dマップを必要とせず,自由移動カメラを対象とする分散ビューオーバラップ認識フレームワークを提案する。
各カメラは独立して階層構造を抽出し、集約し、時間とともに特徴点記述子を共有する。
ビューオーバーラップは、ビューマッチングと幾何検証によって認識され、不正にマッチしたビューを破棄する。
提案されたフレームワークはジェネリックであり、異なる記述子で使用することができる。
我々は、手持ちカメラで収集した新しいシーケンスと同様に、公開シーケンスで実験を行う。
提案するフレームワークにおいて,2項単語のバグを付加したオブジェクト指向FASTと回転BRIEF(ORB)は,NetVLAD,RootSIFT,SuperGlueと比較して高い精度,あるいはそれに近い精度を実現する。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments [29.539527817449923]
本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
本研究の目的は,大FoV全方位カメラを用いた点線オドメトリーの可能性を明らかにすることである。
論文 参考訳(メタデータ) (2023-06-11T12:26:41Z) - A Simple Baseline for Supervised Surround-view Depth Estimation [25.81521612343612]
本稿では,S3Depthを提案する。
我々はCNNとトランスフォーマー層を組み合わせたグローバル・ローカルな特徴抽出モジュールを用いて表現を豊かにする。
本手法は,既存のDDADおよびnuScenesデータセット上での最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T10:06:19Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z) - Learning Feature Descriptors using Camera Pose Supervision [101.56783569070221]
本稿では,画像間の相対的なカメラポーズからのみ特徴記述子を学習可能な,弱教師付きフレームワークを提案する。
ピクセルレベルの地上通信はもはや不要なので、我々のフレームワークは、より大きく、より多様なデータセットのトレーニングを、より良い、偏見のない記述子に開放する。
論文 参考訳(メタデータ) (2020-04-28T06:35:27Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Learning and Matching Multi-View Descriptors for Registration of Point
Clouds [48.25586496457587]
まず,複数視点の画像から学習した多視点局所記述子を3次元キーポイント記述のために提案する。
そこで我々は,効率的な推論に基づいて,外乱マッチングを拒否することを目的とした,ロバストなマッチング手法を開発した。
我々は、パブリックスキャンとマルチビューステレオデータセットの登録に対する我々のアプローチの強化を実証した。
論文 参考訳(メタデータ) (2018-07-16T01:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。