論文の概要: Video-Based Camera Localization Using Anchor View Detection and
Recursive 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2107.03068v1
- Date: Wed, 7 Jul 2021 08:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:05:16.919740
- Title: Video-Based Camera Localization Using Anchor View Detection and
Recursive 3D Reconstruction
- Title(参考訳): アンカービュー検出と再帰的3次元再構成を用いたビデオカメラ定位
- Authors: Hajime Taira, Koki Onbe, Naoyuki Miyashita, Masatoshi Okutomi
- Abstract要約: 本稿では, 産業部品検査などの産業状況において, 画像シーケンスを撮影するための新しいカメラローカライゼーション手法を提案する。
標準的な3次元再構成パイプラインを損なう特異な外観に対処するために、ある場所に概ね接続されたシーケンス内のキーフレームを選択することで、シーンの事前知識を利用する。
実際の産業状況において,本手法は入力シーケンスの99%以上のフレームをローカライズできるが,標準的なローカライゼーション手法では完全なカメラ軌道の再構成に失敗する。
- 参考スコア(独自算出の注目度): 11.538135084738725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce a new camera localization strategy designed for
image sequences captured in challenging industrial situations such as
industrial parts inspection. To deal with peculiar appearances that hurt
standard 3D reconstruction pipeline, we exploit pre-knowledge of the scene by
selecting key frames in the sequence (called as anchors) which are roughly
connected to a certain location. Our method then seek the location of each
frame in time-order, while recursively updating an augmented 3D model which can
provide current camera location and surrounding 3D structure. In an experiment
on a practical industrial situation, our method can localize over 99% frames in
the input sequence, whereas standard localization methods fail to reconstruct a
complete camera trajectory.
- Abstract(参考訳): 本稿では,産業部品検査などの困難な産業状況下で捉えた画像列のための新しいカメラローカライゼーション戦略を提案する。
標準的な3次元復元パイプラインを損なう特異な外観に対処するために,特定の位置と大まかに繋がっているシーケンス(アンカーと呼ばれる)のキーフレームを選択することで,シーンの事前知識を活用する。
提案手法は,現在のカメラ位置と周囲の3D構造を提供する拡張3Dモデルを再帰的に更新しながら,時間順で各フレームの位置を求める。
実際の産業状況において,本手法は入力シーケンスの99%以上のフレームをローカライズできるが,標準的なローカライゼーション手法では完全なカメラ軌道を再構築できない。
関連論文リスト
- Continuous 3D Perception Model with Persistent State [111.83854602049222]
広い範囲の3Dタスクを解くことができる統一的なフレームワークを提案する。
我々のアプローチでは、新しい観測毎に状態表現を継続的に更新するステートフルなリカレントモデルが特徴である。
各種3D/4Dタスクにおける本手法の評価を行い,各課題における競合性や最先端性能を実証する。
論文 参考訳(メタデータ) (2025-01-21T18:59:23Z) - VideoLifter: Lifting Videos to 3D with Fast Hierarchical Stereo Alignment [62.6737516863285]
VideoLifterは、ビデオシーケンスから直接、グローバルスパースから高密度な3D表現に漸進的に最適化する新しいフレームワークである。
フレームやフラグメント間のスパースポイント対応の追跡と伝播によって、VideoLifterはカメラのポーズと3D構造を徐々に洗練する。
このアプローチは、視覚的忠実度と計算効率において、現在の最先端の手法を超越しながら、トレーニング時間を82%以上短縮する。
論文 参考訳(メタデータ) (2025-01-03T18:52:36Z) - Visual Geometry Grounded Deep Structure From Motion [20.203320509695306]
本稿では,各コンポーネントが完全に微分可能で,エンドツーエンドでトレーニング可能な,新しいディープパイプラインVGGSfMを提案する。
まず, 深部2次元点追跡の最近の進歩をベースとして, 画素精度の高いトラックを抽出し, ペアマッチングのチェーン化の必要性を解消する。
私たちは、CO3D、IMC Phototourism、ETH3Dという3つの一般的なデータセットで最先端のパフォーマンスを達成しました。
論文 参考訳(メタデータ) (2023-12-07T18:59:52Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - Video Autoencoder: self-supervised disentanglement of static 3D
structure and motion [60.58836145375273]
ビデオから3次元構造とカメラポーズの遠心分離表現を学習するために,ビデオオートエンコーダを提案する。
この表現は、新しいビュー合成、カメラポーズ推定、動きの追従によるビデオ生成など、様々なタスクに適用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:57:42Z) - Deep Permutation Equivariant Structure from Motion [38.68492294795315]
既存のディープメソッドはステレオおよびマルチビューステレオ設定で高精度な3D再構成を生成する。
監視されていない再投影損失を最小限に抑え、カメラパラメータとシーン構造の両方を回復するニューラルネットワークアーキテクチャを提案する。
本手法は,内部校正と非校正設定の両方において,様々なデータセット上で実験を行い,従来の手法と同等の姿勢と構造を正確に復元することを示す。
論文 参考訳(メタデータ) (2021-04-14T08:50:06Z) - Online Adaptation for Consistent Mesh Reconstruction in the Wild [147.22708151409765]
入ってくるテストビデオに適用する自己教師型オンライン適応問題として、ビデオベースの再構成を行う。
我々は,野生で捕獲された動物を含む非剛体物体のビデオから,時間的に一貫した信頼性の高い3D構造を復元できることを実証した。
論文 参考訳(メタデータ) (2020-12-06T07:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。