論文の概要: Detector-Free Structure from Motion
- arxiv url: http://arxiv.org/abs/2306.15669v1
- Date: Tue, 27 Jun 2023 17:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 12:14:10.126080
- Title: Detector-Free Structure from Motion
- Title(参考訳): 運動からの検出器フリー構造
- Authors: Xingyi He, Jiaming Sun, Yifan Wang, Sida Peng, Qixing Huang, Hujun
Bao, Xiaowei Zhou
- Abstract要約: そこで我々は,非秩序な画像から正確なカメラポーズと点雲を復元する新しい構造抽出フレームワークを提案する。
我々のフレームワークはまず、量子化された検出器レスマッチングから粗いSfMモデルを再構成する。
提案手法が既存の検出器ベースのSfMシステムより優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 63.5577809314603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new structure-from-motion framework to recover accurate camera
poses and point clouds from unordered images. Traditional SfM systems typically
rely on the successful detection of repeatable keypoints across multiple views
as the first step, which is difficult for texture-poor scenes, and poor
keypoint detection may break down the whole SfM system. We propose a new
detector-free SfM framework to draw benefits from the recent success of
detector-free matchers to avoid the early determination of keypoints, while
solving the multi-view inconsistency issue of detector-free matchers.
Specifically, our framework first reconstructs a coarse SfM model from
quantized detector-free matches. Then, it refines the model by a novel
iterative refinement pipeline, which iterates between an attention-based
multi-view matching module to refine feature tracks and a geometry refinement
module to improve the reconstruction accuracy. Experiments demonstrate that the
proposed framework outperforms existing detector-based SfM systems on common
benchmark datasets. We also collect a texture-poor SfM dataset to demonstrate
the capability of our framework to reconstruct texture-poor scenes. Based on
this framework, we take $\textit{first place}$ in Image Matching Challenge
2023.
- Abstract(参考訳): そこで我々は,非秩序な画像から正確なカメラポーズと点雲を復元する新しい構造抽出フレームワークを提案する。
従来のsfmシステムは、複数のビューにまたがる反復可能なキーポイントの検出を第一歩として成功させるが、これはテクスチャパウアシーンでは困難であり、キーポイント検出の貧弱さはsfmシステム全体を壊す可能性がある。
本稿では,検出自由整合器の多視点不整合を解消しつつ,キーポイントの早期決定を回避するため,検出自由整合器の最近の成功の恩恵を受けるための新しい検出自由SfMフレームワークを提案する。
具体的には, 量子化検出器レスマッチングから粗いsfmモデルをまず再構成する。
次に,注意に基づくマルチビューマッチングモジュール間を反復して特徴トラックと幾何リファインメントモジュールを改良し,再構成精度を向上させる新しい反復リファインメントパイプラインにより,モデルを洗練する。
実験により、提案フレームワークは、一般的なベンチマークデータセット上で既存の検出器ベースのSfMシステムより優れていることが示された。
また,テクスチャポーアなSfMデータセットを収集し,テクスチャポーアなシーンを再構築するフレームワークの能力を実証する。
このフレームワークに基づいて、画像マッチングチャレンジ2023で$\textit{first place}$を取ります。
関連論文リスト
- DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Monte Carlo Linear Clustering with Single-Point Supervision is Enough
for Infrared Small Target Detection [48.707233614642796]
SIRST(Single-frame infrared small target)検出は、赤外線画像上の乱雑な背景から小さなターゲットを分離することを目的としている。
ディープラーニングに基づく手法は、SIRST検出において有望な性能を達成したが、大量のトレーニングデータを犠牲にしている。
単一点監視を用いたSIRST検出のための最初の手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T08:04:05Z) - PixMIM: Rethinking Pixel Reconstruction in Masked Image Modeling [83.67628239775878]
Masked Image Modeling (MIM) は Masked Autoencoders (MAE) と BEiT の出現によって有望な進歩を遂げた。
本稿では,画素再構成の観点からMIMの基本解析を行う。
我々は,2つの戦略を包含する極めて単純で効果的な方法,weelmethodを提案する。
論文 参考訳(メタデータ) (2023-03-04T13:38:51Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Single-pass Object-adaptive Data Undersampling and Reconstruction for
MRI [6.599344783327054]
本稿では,畳み込みニューラルネットワークMNetを用いたデータ駆動型サンプリング手法を提案する。
ネットワークは、各オブジェクトに対する非常に限られた低周波k空間データを観測し、所望のアンダーサンプリングパターンを迅速に予測する。
高速MRI膝関節データセットの実験結果から,提案した学習アンダーサンプリングネットワークを用いて,4倍,8倍の加速度で物体特異的マスクを生成できることが示された。
論文 参考訳(メタデータ) (2021-11-17T16:06:06Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。