論文の概要: Lite Any Stereo: Efficient Zero-Shot Stereo Matching
- arxiv url: http://arxiv.org/abs/2511.16555v1
- Date: Thu, 20 Nov 2025 17:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.746672
- Title: Lite Any Stereo: Efficient Zero-Shot Stereo Matching
- Title(参考訳): Lite Any Stereo:効率的なゼロショットステレオマッチング
- Authors: Junpeng Jing, Weixun Luo, Ye Mao, Krystian Mikolajczyk,
- Abstract要約: Lite Any Stereoは、高効率を維持しながら強力なゼロショット一般化を実現するフレームワークである。
我々のモデルは、最先端の非原始的精度の手法に匹敵する精度を得る。
- 参考スコア(独自算出の注目度): 21.89511226115265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in stereo matching have focused on accuracy, often at the cost of significantly increased model size. Traditionally, the community has regarded efficient models as incapable of zero-shot ability due to their limited capacity. In this paper, we introduce Lite Any Stereo, a stereo depth estimation framework that achieves strong zero-shot generalization while remaining highly efficient. To this end, we design a compact yet expressive backbone to ensure scalability, along with a carefully crafted hybrid cost aggregation module. We further propose a three-stage training strategy on million-scale data to effectively bridge the sim-to-real gap. Together, these components demonstrate that an ultra-light model can deliver strong generalization, ranking 1st across four widely used real-world benchmarks. Remarkably, our model attains accuracy comparable to or exceeding state-of-the-art non-prior-based accurate methods while requiring less than 1% computational cost, setting a new standard for efficient stereo matching.
- Abstract(参考訳): ステレオマッチングの最近の進歩は、しばしばモデルサイズを大幅に増大させるコストで、精度に重点を置いている。
伝統的に、コミュニティは効率的なモデルを、その限られた能力のため、ゼロショット能力のできないものと見なしてきた。
本稿では,高効率を維持しながら強力なゼロショット一般化を実現するステレオ深度推定フレームワークLite Any Stereoを紹介する。
この目的のために、我々はスケーラビリティを確保するためにコンパクトで表現力のあるバックボーンを設計し、また、慎重に構築されたハイブリッドコスト集約モジュールを設計する。
さらに,シム・トゥ・リアルギャップを効果的に橋渡しするために,百万規模のデータに対する3段階のトレーニング戦略を提案する。
これらのコンポーネントを合わせて、超軽量モデルが強力な一般化を実現し、4つの広く使用されている実世界のベンチマークで1位にランク付けできることを示した。
顕著なことに、我々のモデルは、1%未満の計算コストを必要としながら、最先端の非優位な正確な手法に匹敵する精度を達成し、効率的なステレオマッチングのための新しい標準を設定している。
関連論文リスト
- FoundationStereo: Zero-Shot Stereo Matching [50.79202911274819]
FoundationStereoはステレオ深度推定の基礎モデルである。
まず,大規模(1Mステレオペア)合成学習データセットを構築した。
その後、スケーラビリティを高めるために、多数のネットワークアーキテクチャコンポーネントを設計します。
論文 参考訳(メタデータ) (2025-01-17T01:01:44Z) - Stereo Anywhere: Robust Zero-Shot Deep Stereo Matching Even Where Either Stereo or Mono Fail [37.90622613373521]
我々はStereo Anywhereを紹介した。これは、幾何学的制約と単眼深度視覚基礎モデル(VFM)の頑健な先行性を組み合わせた新しいステレオマッチングフレームワークである。
合成専用学習モデルでは, ゼロショットの一般化が実現し, 既存の解よりも優れていた。
論文 参考訳(メタデータ) (2024-12-05T18:59:58Z) - Stereo Anything: Unifying Zero-shot Stereo Matching with Large-Scale Mixed Data [77.27700893908012]
ステレオマッチングは3次元視覚の基盤として機能し、深度回復のためのステレオ画像対間の画素ワイド対応を確立することを目的としている。
現在のモデルは、目に見えないドメインにデプロイすると、しばしば深刻なパフォーマンス劣化を示す。
データ中心のフレームワークであるStereoAnythingを導入し、既存のステレオモデルのゼロショット一般化能力を大幅に強化する。
論文 参考訳(メタデータ) (2024-11-21T11:59:04Z) - Distill-then-prune: An Efficient Compression Framework for Real-time Stereo Matching Network on Edge Devices [5.696239274365031]
本稿では, 知識蒸留とモデルプルーニングを取り入れて, 速度と精度のトレードオフを克服し, 新たな戦略を提案する。
エッジデバイスに高い精度を提供しながら、リアルタイム性能を維持するモデルを得た。
論文 参考訳(メタデータ) (2024-05-20T06:03:55Z) - Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo
Matching [77.133400999703]
相関に基づくステレオマッチングは優れた性能を達成した。
固定モデルによる現在のメソッドは、さまざまなデータセットで均一に動作しない。
本稿では,ロバストなステレオマッチングのための相関を動的に計算する新しい視点を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:47:37Z) - Expanding Sparse Guidance for Stereo Matching [24.74333370941674]
局所特徴強調のためのRGB画像に関するスパースキューを拡大する新しい空間拡張手法を提案する。
提案手法は,最先端のステレオアルゴリズムを極めてスパースな手法で大幅に向上させる。
論文 参考訳(メタデータ) (2020-04-24T06:41:11Z) - AANet: Adaptive Aggregation Network for Efficient Stereo Matching [33.39794232337985]
現在の最先端ステレオモデルは、ほとんどが高価な3D畳み込みに基づいている。
エッジフェットング問題を緩和するために,スパースポイントに基づくスケール内コストアグリゲーション手法を提案する。
また、従来のクロススケールなコスト集約アルゴリズムをニューラルネットワーク層に近似して、大きなテクスチャレス領域を処理する。
論文 参考訳(メタデータ) (2020-04-20T18:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。