論文の概要: Geometry-Aware Reference Synthesis for Multi-View Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2207.08601v2
- Date: Thu, 21 Jul 2022 05:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 10:29:55.479439
- Title: Geometry-Aware Reference Synthesis for Multi-View Image Super-Resolution
- Title(参考訳): 多視点画像超解像のための幾何認識参照合成
- Authors: Ri Cheng, Yuqi Sun, Bo Yan, Weimin Tan, Chenxi Ma
- Abstract要約: MVISR(Multi-View Image Super-Resolution)タスクは、同じシーンから撮影されたマルチビュー画像の解像度を高めることを目的としている。
1つの解決策は、低解像度(LR)入力ビューからHR結果を再構成するために画像またはビデオ超解像(SR)手法を適用することである。
本稿では、幾何情報を用いて全てのLRマルチビューからシャープな詳細を抽出し、LR入力ビューのSRをサポートするMVSRnetを提案する。
- 参考スコア(独自算出の注目度): 16.68091352547819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent multi-view multimedia applications struggle between high-resolution
(HR) visual experience and storage or bandwidth constraints. Therefore, this
paper proposes a Multi-View Image Super-Resolution (MVISR) task. It aims to
increase the resolution of multi-view images captured from the same scene. One
solution is to apply image or video super-resolution (SR) methods to
reconstruct HR results from the low-resolution (LR) input view. However, these
methods cannot handle large-angle transformations between views and leverage
information in all multi-view images. To address these problems, we propose the
MVSRnet, which uses geometry information to extract sharp details from all LR
multi-view to support the SR of the LR input view. Specifically, the proposed
Geometry-Aware Reference Synthesis module in MVSRnet uses geometry information
and all multi-view LR images to synthesize pixel-aligned HR reference images.
Then, the proposed Dynamic High-Frequency Search network fully exploits the
high-frequency textural details in reference images for SR. Extensive
experiments on several benchmarks show that our method significantly improves
over the state-of-the-art approaches.
- Abstract(参考訳): 最近のマルチビューマルチメディアアプリケーションは、高解像度(HR)ビジュアルエクスペリエンスとストレージや帯域幅の制約に悩まされている。
そこで本稿では,MVISR(Multi-View Image Super-Resolution)タスクを提案する。
同じシーンから撮影されたマルチビュー画像の解像度を向上させることを目的としている。
1つの解決策は、低解像度(LR)入力ビューからHR結果を再構成するために画像またはビデオ超解像(SR)手法を適用することである。
しかし、これらの手法はビュー間の大角変換を処理できず、全てのマルチビュー画像の情報を活用できない。
これらの問題に対処するために、幾何情報を用いて全てのLRマルチビューから鋭い詳細を抽出し、LR入力ビューのSRをサポートするMVSRnetを提案する。
具体的には、MVSRnetのGeometry-Aware Reference Synthesisモジュールは、幾何情報と全多視点LR画像を用いて、ピクセル整列HR参照画像を合成する。
そこで提案する動的高周波検索ネットワークは,SRの参照画像における高周波テクスチャの詳細をフル活用する。
いくつかのベンチマーク実験により,本手法は最先端手法よりも大幅に改善されていることが示された。
関連論文リスト
- Deep 3D World Models for Multi-Image Super-Resolution Beyond Optical
Flow [27.31768206943397]
マルチイメージ・スーパーレゾリューション(MISR)は、複数の画像を組み合わせることで、低解像度(LR)取得の空間分解能を高めることができる。
提案したモデルであるEpiMISRは,光学的流れから離れ,取得過程のエピポーラ幾何学を明示的に用いている。
論文 参考訳(メタデータ) (2024-01-30T12:55:49Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - LMR: A Large-Scale Multi-Reference Dataset for Reference-based
Super-Resolution [86.81241084950524]
参照ベース超解像(RefSR)は、単一の画像超解像(SISR)と比較して、類似した高品質な画像を参照することで優れた結果が得られると広く合意されている。
以前のRefSR手法はすべて単一参照イメージトレーニングに重点を置いているが、複数の参照イメージはテストや実用的なアプリケーションでしばしば利用できる。
我々はLMRと呼ばれる大規模なマルチ参照超解像データセットを構築し、300x300のトレーニング画像の112,142グループを含み、これは既存の最大のRefSRデータセットの10倍である。
論文 参考訳(メタデータ) (2023-03-09T01:07:06Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Learning Resolution-Adaptive Representations for Cross-Resolution Person
Re-Identification [49.57112924976762]
低解像度(LR)クエリIDイメージと高解像度(HR)ギャラリーイメージとの整合性を実現する。
実際のカメラとの違いにより、クエリ画像が分解能の低下に悩まされることがしばしばあるため、これは困難かつ実用的な問題である。
本稿では,問合せ画像の解像度に適応する動的計量を用いて,HRとLRの画像を直接比較するためのSRフリーなパラダイムについて検討する。
論文 参考訳(メタデータ) (2022-07-09T03:49:51Z) - Attention-based Multi-Reference Learning for Image Super-Resolution [29.361342747786164]
本稿では,新しいアテンションに基づくマルチ参照超解像ネットワークを提案する。
類似したテクスチャを複数の参照画像から超解像出力に適応的に転送する。
最先端の参照超解像法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2021-08-31T09:12:26Z) - Low Resolution Information Also Matters: Learning Multi-Resolution
Representations for Person Re-Identification [37.01666917620271]
クロスレゾリューションされた人物のリIDは、オーバーラップされていないカメラから撮影した人物の画像をマッチングすることを目的としている。
emphtextbfMulti-Resolution textbfRepresentations textbfJoint textbfLearning (textbfMRJL)
提案手法は,分解能再構成ネットワーク(RRN)とDFFN(Dual Feature Fusion Network)から構成される。
論文 参考訳(メタデータ) (2021-05-26T16:54:56Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - DDet: Dual-path Dynamic Enhancement Network for Real-World Image
Super-Resolution [69.2432352477966]
実画像超解像(Real-SR)は、実世界の高分解能画像(HR)と低分解能画像(LR)の関係に焦点を当てている。
本稿では,Real-SRのためのデュアルパス動的拡張ネットワーク(DDet)を提案する。
特徴表現のための大規模な畳み込みブロックを積み重ねる従来の手法とは異なり、非一貫性のある画像対を研究するためのコンテンツ認識フレームワークを導入する。
論文 参考訳(メタデータ) (2020-02-25T18:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。