論文の概要: StereoINR: Cross-View Geometry Consistent Stereo Super Resolution with Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2505.05509v1
- Date: Wed, 07 May 2025 08:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.000868
- Title: StereoINR: Cross-View Geometry Consistent Stereo Super Resolution with Implicit Neural Representation
- Title(参考訳): StereoINR: 入射神経表現を伴う立体超解像
- Authors: Yi Liu, Xinyi Liu, Panwang Xia, Qiong Wu, Yi Wan, Yongjun Zhang,
- Abstract要約: ステレオ・イメージ・スーパーレゾリューション(SSR)はステレオ・イメージ・ペアからの情報を活用することで高解像度の細部を強化することを目的としている。
従来のアップサンプリング手法では、コンボリューションを使用して異なるビューの深い特徴を独立に処理し、クロスビューや非ローカルな情報知覚を欠いている。
本稿ではステレオ画像対を連続的な暗黙的表現として革新的にモデル化するステレオインプリシットニューラル表現(StereoINR)を提案する。
この連続表現はスケールの制限を突破し、任意のスケールのステレオ超解像再構成のための統一的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 15.167871410210354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo image super-resolution (SSR) aims to enhance high-resolution details by leveraging information from stereo image pairs. However, existing stereo super-resolution (SSR) upsampling methods (e.g., pixel shuffle) often overlook cross-view geometric consistency and are limited to fixed-scale upsampling. The key issue is that previous upsampling methods use convolution to independently process deep features of different views, lacking cross-view and non-local information perception, making it difficult to select beneficial information from multi-view scenes adaptively. In this work, we propose Stereo Implicit Neural Representation (StereoINR), which innovatively models stereo image pairs as continuous implicit representations. This continuous representation breaks through the scale limitations, providing a unified solution for arbitrary-scale stereo super-resolution reconstruction of left-right views. Furthermore, by incorporating spatial warping and cross-attention mechanisms, StereoINR enables effective cross-view information fusion and achieves significant improvements in pixel-level geometric consistency. Extensive experiments across multiple datasets show that StereoINR outperforms out-of-training-distribution scale upsampling and matches state-of-the-art SSR methods within training-distribution scales.
- Abstract(参考訳): ステレオ・イメージ・スーパーレゾリューション(SSR)はステレオ・イメージ・ペアからの情報を活用することで高解像度の細部を強化することを目的としている。
しかし、既存のステレオ超解像(SSR)アップサンプリング法(例えばピクセルシャッフル)は、しばしばクロスビューな幾何学的整合性を見落とし、固定スケールアップサンプリングに制限される。
重要な問題は、従来のアップサンプリング手法が畳み込みを利用して、異なるビューの深い特徴を独立に処理し、クロスビューと非ローカルな情報知覚を欠いているため、多視点シーンから有益な情報を選択するのが困難であることである。
本研究ではステレオ画像対を連続的な暗黙的表現として革新的にモデル化するステレオインプリシットニューラル表現(StereoINR)を提案する。
この連続表現はスケールの制限を突破し、任意のスケールのステレオ超解像再構成のための統一的なソリューションを提供する。
さらに,空間ワーピングとクロスアテンション機構を組み込むことで,効果的なクロスビュー情報融合を実現し,画素レベルの幾何整合性を大幅に向上させることができる。
複数のデータセットにわたる大規模な実験により、StereoINRはトレーニングのアウト・オブ・ディストリビューション・スケール・サンプリングより優れ、トレーニング・ディストリビューション・スケールにおける最先端のSSRメソッドと一致していることが示された。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - QMambaBSR: Burst Image Super-Resolution with Query State Space Model [55.56075874424194]
バースト超解像度は、複数のバースト低解像度フレームからサブピクセル情報を融合することにより、高画質でよりリッチな細部で高解像度の画像を再構成することを目的としている。
BusrtSRにおいて鍵となる課題は、高周波ノイズ障害を同時に抑制しつつ、ベースフレームの補完的なサブピクセルの詳細を抽出することである。
本稿では,Query State Space Model (QSSM) とAdaptive Up-Sampling Module (AdaUp) を組み合わせた新しいQuery Mamba Burst Super-Resolution (QMambaBSR) ネットワークを紹介する。
論文 参考訳(メタデータ) (2024-08-16T11:15:29Z) - Toward Real World Stereo Image Super-Resolution via Hybrid Degradation
Model and Discriminator for Implied Stereo Image Information [10.957275128743529]
実世界のステレオ画像の超解像はコンピュータビジョンシステムの性能向上に大きな影響を与えている。
ステレオ画像を改善するために, 単一像超解像の既存の方法を適用することができる。
本稿では,暗黙的ステレオ情報判別器とハイブリッド劣化モデルを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T07:24:50Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - RIAV-MVS: Recurrent-Indexing an Asymmetric Volume for Multi-View Stereo [20.470182157606818]
「学習から最適化」パラダイムは、平面スウィーピングコストボリュームを反復的にインデックス化し、畳み込みGated Recurrent Unit(GRU)を介して深度マップを回帰する。
実世界のMVSデータセットについて広範な実験を行い、本手法が内部データセット評価とクロスデータセット一般化の両方の観点から最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-05-28T03:32:56Z) - A New Dataset and Transformer for Stereoscopic Video Super-Resolution [4.332879001008757]
ステレオビデオ超解像は高解像度映像を再構成することで低解像度の分解能を高めることを目的としている。
SVSRの主な課題は、立体的一貫性と時間的一貫性を維持することである。
本稿では,SVSR のトランスフォーマーモデル,すなわち Trans-SVSR を提案する。
論文 参考訳(メタデータ) (2022-04-21T11:49:29Z) - Cross-MPI: Cross-scale Stereo for Image Super-Resolution using
Multiplane Images [44.85260985973405]
Cross-MPIは、新しい平面対応MPI機構、マルチスケールガイドアップサンプリングモジュール、超高分解能合成・融合モジュールからなるエンドツーエンドのRefSRネットワークである。
デジタル合成および光ズームクロススケールデータによる実験結果から,Cross-MPIフレームワークは既存のRefSR手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-11-30T09:14:07Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。