論文の概要: Cross-View Hierarchy Network for Stereo Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2304.06236v1
- Date: Thu, 13 Apr 2023 03:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 15:49:42.870796
- Title: Cross-View Hierarchy Network for Stereo Image Super-Resolution
- Title(参考訳): ステレオ画像超解像のためのクロスビュー階層ネットワーク
- Authors: Wenbin Zou, Hongxia Gao, Liang Chen, Yunchen Zhang, Mingchao Jiang,
Zhongxin Yu, and Ming Tan
- Abstract要約: ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
- 参考スコア(独自算出の注目度): 14.574538513341277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo image super-resolution aims to improve the quality of high-resolution
stereo image pairs by exploiting complementary information across views. To
attain superior performance, many methods have prioritized designing complex
modules to fuse similar information across views, yet overlooking the
importance of intra-view information for high-resolution reconstruction. It
also leads to problems of wrong texture in recovered images. To address this
issue, we explore the interdependencies between various hierarchies from
intra-view and propose a novel method, named Cross-View-Hierarchy Network for
Stereo Image Super-Resolution (CVHSSR). Specifically, we design a
cross-hierarchy information mining block (CHIMB) that leverages channel
attention and large kernel convolution attention to extract both global and
local features from the intra-view, enabling the efficient restoration of
accurate texture details. Additionally, a cross-view interaction module (CVIM)
is proposed to fuse similar features from different views by utilizing
cross-view attention mechanisms, effectively adapting to the binocular scene.
Extensive experiments demonstrate the effectiveness of our method. CVHSSR
achieves the best stereo image super-resolution performance than other
state-of-the-art methods while using fewer parameters. The source code and
pre-trained models are available at https://github.com/AlexZou14/CVHSSR.
- Abstract(参考訳): ステレオ画像スーパーレゾリューションは、ビュー間の補完情報を活用し、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
優れた性能を達成するために、多くの方法が複雑なモジュールの設計を優先し、ビューにまたがる類似の情報を融合させた。
また、復元された画像のテクスチャに問題があることも問題となる。
この問題に対処するため,我々はイントラビューから様々な階層間の相互依存性を調べ,ステレオ画像超解像のためのクロスビュー階層ネットワーク (cvhsr) という新しい手法を提案する。
具体的には,チャネル・アテンションとカーネル・コンボリューション・アテンションを利用した階層間情報マイニング・ブロック(CHIMB)を設計し,グローバル・ローカル両方の特徴をイントラビューから抽出し,正確なテクスチャ詳細を効率的に復元する。
さらに、クロスビューアテンション機構を利用し、双眼鏡シーンに効果的に適応することにより、異なるビューから類似した機能を融合するクロスビューインタラクションモジュール(cvim)を提案する。
広範な実験により本手法の有効性が実証された。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
ソースコードと事前訓練されたモデルはhttps://github.com/AlexZou14/CVHSSRで入手できる。
関連論文リスト
- Multi-Level Feature Fusion Network for Lightweight Stereo Image Super-Resolution [12.066710423371559]
軽量ステレオ画像超解像(MFFSSR)のための効率的なマルチレベル特徴融合ネットワークを提案する。
MFFSSRは、ハイブリットアテンション特徴抽出ブロック(HAFEB)を使用して、マルチレベルなイントラビュー特徴を抽出する。
より少ないパラメータで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-09T02:01:51Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Cross-MPI: Cross-scale Stereo for Image Super-Resolution using
Multiplane Images [44.85260985973405]
Cross-MPIは、新しい平面対応MPI機構、マルチスケールガイドアップサンプリングモジュール、超高分解能合成・融合モジュールからなるエンドツーエンドのRefSRネットワークである。
デジタル合成および光ズームクロススケールデータによる実験結果から,Cross-MPIフレームワークは既存のRefSR手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-11-30T09:14:07Z) - Residual Channel Attention Generative Adversarial Network for Image
Super-Resolution and Noise Reduction [14.217260022873083]
深層ネットワークが深まるにつれて、トレーニングが難しくなり、より細かいテクスチャの詳細を復元することが難しくなります。
本稿では,これらの問題を解決するために,Residual Channel Attention-Generative Adversarial Network (RCA-GAN)を提案する。
RCA-GANは、ベースラインモデルよりも細部と自然なテクスチャで、常に視覚的品質が向上する。
論文 参考訳(メタデータ) (2020-04-28T17:23:46Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Learned Multi-View Texture Super-Resolution [76.82725815863711]
仮想3Dオブジェクトの高解像度テクスチャマップを,そのオブジェクトの低解像度画像の集合から作成できる超高解像度手法を提案する。
本アーキテクチャは, (i) 重なり合うビューの冗長性に基づくマルチビュー超解像の概念と, (ii) 高分解能画像構造の学習先行に基づくシングルビュー超解像の概念を統一する。
論文 参考訳(メタデータ) (2020-01-14T13:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。