論文の概要: Reference-Free Omnidirectional Stereo Matching via Multi-View Consistency Maximization
- arxiv url: http://arxiv.org/abs/2603.15019v1
- Date: Mon, 16 Mar 2026 09:23:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:57.979246
- Title: Reference-Free Omnidirectional Stereo Matching via Multi-View Consistency Maximization
- Title(参考訳): 多視点一致最大化による基準自由全方位ステレオマッチング
- Authors: Lehuai Xu, Weiming Zhang, Yang Li, Sidan Du, Lin Wang,
- Abstract要約: フリーオムニMVSはペアの相関関係を頑健でオールニの認識とグローバルなコンセンサスに集約することができる。
可視性を考慮したコンセンサスを実現するために,相関ベクトルを適応的に融合する軽量アテンション機構を提案する。
多様なベンチマークデータセットに対する実験は、グローバルに一貫性があり、可視性があり、スケールアウェアな深さ推定のための手法の優位性を実証している。
- 参考スコア(独自算出の注目度): 22.711843818785454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable omnidirectional depth estimation from multi-fisheye stereo matching is pivotal to many applications, such as embodied robotics. Existing approaches either rely on spherical sweeping with heuristic fusion strategies to build the cost columns or perform reference-centric stereo matching based on rectified views. However, these methods fail to explicitly exploit geometric relationships between multiple views, rendering them less capable of capturing the global dependencies, visibility, or scale changes. In this paper, we shift to a new perspective and propose a novel reference-free framework, dubbed FreeOmniMVS, via multi-view consistency maximization. The highlight of FreeOmniMVS is that it can aggregate pair-wise correlations into a robust, visibility-aware, and global consensus. As such, it is tolerant to occlusions, partial overlaps, and varying baselines. Specifically, to achieve global coherence, we introduce a novel View-pair Correlation Transformer (VCT) that explicitly models pairwise correlation volumes across all camera view pairs, allowing us to drop unreliable pairs caused by occlusion or out-of-focus observations. To realize scalable and visibility-aware consensus, we propose a lightweight attention mechanism that adaptively fuses the correlation vectors, eliminating the need for a designated reference view and allowing all cameras to contribute equally to the stereo matching process. Extensive experiments on diverse benchmark datasets demonstrate the superiority of our method for globally consistent, visibility-aware, and scale-aware omnidirectional depth estimation.
- Abstract(参考訳): 多魚眼ステレオマッチングの信頼性全方位深度推定は、エンボディロボット工学などの多くの応用において重要である。
既存のアプローチは、コスト列を構築するためのヒューリスティックな融合戦略による球面の掃討や、修正されたビューに基づいた参照中心のステレオマッチングに頼っている。
しかし、これらの手法は、複数のビュー間の幾何学的関係を明示的に活用することができず、グローバルな依存関係のキャプチャや可視性、あるいはスケールの変更ができない。
本稿では、新しい視点にシフトし、マルチビュー一貫性の最大化により、FreeOmniMVSと呼ばれる新しい参照不要のフレームワークを提案する。
FreeOmniMVSのハイライトは、ペアの相関関係を堅牢で可視的でグローバルなコンセンサスに集約できることである。
そのため、オクルージョン、部分オーバーラップ、および様々なベースラインに耐性がある。
具体的には、グローバルコヒーレンスを実現するために、全カメラビュー対の対相関ボリュームを明示的にモデル化するビューペア相関変換器(VCT)を導入する。
拡張性および可視性を考慮したコンセンサスを実現するために,相関ベクトルを適応的に融合させ,指定された参照ビューの必要性を排除し,ステレオマッチングプロセスに全カメラが等しく貢献できる軽量アテンション機構を提案する。
多様なベンチマークデータセットに対する大規模な実験は、グローバルに一貫性があり、可視性があり、スケールに配慮した全方位深度推定のための手法の優位性を実証している。
関連論文リスト
- Ego to World: Collaborative Spatial Reasoning in Embodied Systems via Reinforcement Learning [61.753025885751036]
本稿では,3つのタスクにまたがる異種視点を融合する視覚言語モデルの能力を評価するEgo-to-Worldベンチマークを提案する。
我々は,2段階のフレームワークであるCoRLを提案し,チェイン・オブ・ソート(Chain-of-Thought)を教師付き微調整と強化学習を組み合わせた。
我々は、CoRLが、推論と知覚グラウンドのメトリクスの両方において、強力なプロプライエタリおよびオープンソースベースラインを一貫して超越していることを示します。
論文 参考訳(メタデータ) (2026-03-16T04:27:53Z) - Phase-Consistent Magnetic Spectral Learning for Multi-View Clustering [18.462238432927915]
教師なしのマルチビュークラスタリングは、ラベルなしで複数のビューから補完的な情報を活用することで、データを有意義なグループに分割することを目的としている。
既存のアプローチは、しばしばマグニチュードのみの親和性や初期の擬似的ターゲットに依存しており、異なる視点が同等の強度を持つが矛盾する方向傾向を持つ関係を誘導すると不安定になる可能性がある。
本稿では,MVC における EmphPhase-Consistent Magnetic Spectral Learning を提案する。
論文 参考訳(メタデータ) (2026-02-21T06:04:57Z) - Wasserstein-Aligned Hyperbolic Multi-View Clustering [58.29261653100388]
本稿では,マルチビュークラスタリングのための新しいWasserstein-Aligned Hyperbolic(WAH)フレームワークを提案する。
本手法はビュー固有の双曲エンコーダを用いて特徴をローレンツ多様体に埋め込んで階層的セマンティックモデリングを行う。
論文 参考訳(メタデータ) (2025-12-10T07:56:19Z) - Balanced Multi-view Clustering [56.17836963920012]
マルチビュークラスタリング(MvC)は、さまざまなビューからの情報を統合して、基盤となるデータ構造をキャプチャするモデルの能力を高めることを目的としている。
MvCで広く使われているジョイントトレーニングパラダイムは、多視点情報を十分に活用していない可能性がある。
本稿では,ビュー固有のコントラスト正規化(VCR)を導入し,各ビューの最適化を最適化する新しいマルチビュークラスタリング(BMvC)手法を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:42:47Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。