論文の概要: DINO-RotateMatch: A Rotation-Aware Deep Framework for Robust Image Matching in Large-Scale 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2512.03715v1
- Date: Wed, 03 Dec 2025 12:05:49 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:01:40.58825
- Title: DINO-RotateMatch: A Rotation-Aware Deep Framework for Robust Image Matching in Large-Scale 3D Reconstruction
- Title(参考訳): DINO-RotateMatch:大規模3次元再構成におけるロバスト画像マッチングのための回転認識深層フレームワーク
- Authors: Kaichen Zhang, Tianxiang Sheng, Xuanming Shi,
- Abstract要約: DINOは、大規模なコレクションで意味的に関連するイメージペアを検索するために使用される。
Kaggle Image Matching Challenge 2025の実験では平均精度(mAA)が一貫した改善が示されている。
その結果、自己教師付きグローバルディスクリプタとローテーション強化ローカルマッチングを組み合わせることで、大規模3次元再構成のための堅牢でスケーラブルなソリューションが提供されることを確認した。
- 参考スコア(独自算出の注目度): 3.84810121256726
- License:
- Abstract: This paper presents DINO-RotateMatch, a deep-learning framework designed to address the chal lenges of image matching in large-scale 3D reconstruction from unstructured Internet images. The method integrates a dataset-adaptive image pairing strategy with rotation-aware keypoint extraction and matching. DINO is employed to retrieve semantically relevant image pairs in large collections, while rotation-based augmentation captures orientation-dependent local features using ALIKED and Light Glue. Experiments on the Kaggle Image Matching Challenge 2025 demonstrate consistent improve ments in mean Average Accuracy (mAA), achieving a Silver Award (47th of 943 teams). The results confirm that combining self-supervised global descriptors with rotation-enhanced local matching offers a robust and scalable solution for large-scale 3D reconstruction.
- Abstract(参考訳): 本稿では,非構造化画像からの大規模3次元再構成において,画像マッチングのチャルレンジに対処するディープラーニングフレームワークであるDINO-RotateMatchを提案する。
本手法は,データセット適応型画像ペアリング戦略と回転対応キーポイント抽出とマッチングを統合する。
DINOは大規模なコレクションで意味論的に関連するイメージペアを検索するために使用され、回転ベースの拡張はALIKEDとLight Glueを使って方向に依存したローカル特徴をキャプチャする。
Kaggle Image Matching Challenge 2025の実験では、平均的平均精度(mAA)における一貫した改善が示され、シルバー賞(943チーム中47位)を受賞した。
その結果、自己教師付きグローバルディスクリプタとローテーション強化ローカルマッチングを組み合わせることで、大規模3次元再構成のための堅牢でスケーラブルなソリューションが提供されることを確認した。
関連論文リスト
- G-CUT3R: Guided 3D Reconstruction with Camera and Depth Prior Integration [57.67450930037339]
G-CUT3Rは,ガイド付き3次元シーン再構成のための新しいフィードフォワード手法である。
入力画像のみに依存する既存のフィードフォワード法とは異なり,本手法では奥行き,カメラキャリブレーション,カメラ位置などの補助的データを活用する。
論文 参考訳(メタデータ) (2025-08-15T10:25:58Z) - EDM: Equirectangular Projection-Oriented Dense Kernelized Feature Matching [49.15373858190824]
等角射影指向カーネル化特徴マッチング (EDM) と呼ばれる,最初の学習に基づく密マッチングアルゴリズムを導入する。
提案手法は,Matterport3DおよびStanford2D3Dデータセット上でのAUC@5degにおける+26.72と+42.62の改善により,顕著な性能向上を実現する。
論文 参考訳(メタデータ) (2025-02-28T03:37:01Z) - LucidFusion: Reconstructing 3D Gaussians with Arbitrary Unposed Images [23.96972213606037]
3次元再構成を画像から画像への変換として再構成し、相対座標マップ(RCM)を導入する。
RCMは、ポーズ推定なしで複数の未提示画像をメインビューにアライメントする。
RCMはプロセスを単純化するが、グローバルな3D監視の欠如によりノイズの多い出力が得られる。
我々のLucidFusionフレームワークは、任意の数の未用意な入力を処理し、数秒で堅牢な3D再構成を実現し、より柔軟でポーズなしの3Dパイプラインを実現する。
論文 参考訳(メタデータ) (2024-10-21T04:47:01Z) - Grounding Image Matching in 3D with MASt3R [8.14650201701567]
本稿では,トランスフォーマーをベースとした強力な3次元再構成フレームワークであるDUSt3Rによる3Dタスクのキャストマッチングを提案する。
我々は,DUSt3Rネットワークを高密度な局所的特徴を出力する新しいヘッドで拡張することを提案する。
提案手法はMASt3Rとよばれる手法で,複数のマッチングタスクにおいて技量を著しく上回っている。
論文 参考訳(メタデータ) (2024-06-14T06:46:30Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Extreme Rotation Estimation using Dense Correlation Volumes [73.35119461422153]
本稿では,RGB画像対の相対的な3次元回転を極端に推定する手法を提案する。
画像が重なり合わなくても、それらの幾何学的関係に関して豊富な隠れた手がかりがあるかもしれないと観察する。
本稿では,2つの入力画像間の全ての点を比較することで,そのような暗黙の手がかりを自動的に学習できるネットワーク設計を提案する。
論文 参考訳(メタデータ) (2021-04-28T02:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。