論文の概要: Learning Texture Transformer Network for Light Field Super-Resolution
- arxiv url: http://arxiv.org/abs/2210.09293v1
- Date: Sun, 9 Oct 2022 15:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 12:18:14.252039
- Title: Learning Texture Transformer Network for Light Field Super-Resolution
- Title(参考訳): 電界超解像のための学習テクスチャトランスネットワーク
- Authors: Javeria Shabbir, M. Zeshan Alam, M. Umair Mukati
- Abstract要約: 変換器ネットワーク(TTSR)を利用した光画像の空間分解能向上手法を提案する。
その結果,2次元の光場画像より約4dBから6dBのPSNRゲインが得られた。
- 参考スコア(独自算出の注目度): 1.5469452301122173
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Hand-held light field cameras suffer from low spatial resolution due to the
inherent spatio-angular tradeoff. In this paper, we propose a method to improve
the spatial resolution of light field images with the aid of the Texture
Transformer Network (TTSR). The proposed method consists of three modules: the
first module produces an all-in focus high-resolution perspective image which
serves as a reference image for the second module, i.e. TTSR, which in turn
produces a high-resolution light field. The last module refines the spatial
resolution by imposing a light field prior. The results demonstrate around 4 dB
to 6 dB PSNR gain over a bicubically resized light field image
- Abstract(参考訳): ハンドヘルド光界カメラは、固有の時空間角のトレードオフにより、空間分解能が低い。
本稿では,テクスチュアトランスフォーマーネットワーク(TTSR)を用いて,光画像の空間分解能を向上させる手法を提案する。
提案手法は3つのモジュールから構成される: 1つ目のモジュールは2番目のモジュール、すなわちttsrの参照画像として機能するオールインフォーカス高分解能視点画像を生成する。
最後のモジュールは、光場を事前に設定することで空間分解能を洗練する。
4dBから6dBのPSNRゲインを2次元再構成光場画像上で実証した。
関連論文リスト
- Mamba-based Light Field Super-Resolution with Efficient Subspace Scanning [48.99361249764921]
4次元光場(LF)超解像において,トランスフォーマー法は優れた性能を示した。
しかし、その二次的な複雑さは、高解像度の4D入力の効率的な処理を妨げる。
我々は,効率的な部分空間走査戦略を設計し,マンバをベースとした光場超解法 MLFSR を提案する。
論文 参考訳(メタデータ) (2024-06-23T11:28:08Z) - Light Field Spatial Resolution Enhancement Framework [0.24578723416255746]
解像度向上のための新しい光場フレームワークを提案する。
第1モジュールは高解像度のオールインフォーカス画像を生成する。
第2のモジュール、テクスチャ・トランスフォーマー・ネットワークは、各光界視点の分解能を独立して向上させる。
論文 参考訳(メタデータ) (2024-05-05T02:07:10Z) - Unsupervised Learning of High-resolution Light Field Imaging via Beam
Splitter-based Hybrid Lenses [42.5604477188514]
ビームスプリッタを用いたハイブリッド光フィールドイメージングプロトタイプを設計し、4次元光フィールド画像と高分解能2次元画像とを同時に記録する。
2次元画像は、4次元光場画像の低分解能中心部分開口像に対応する高分解能基底真理とみなすことができる。
ハイブリッド光場データセットを用いた教師なし学習に基づく超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-29T10:30:02Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Sub-Aperture Feature Adaptation in Single Image Super-resolution Model
for Light Field Imaging [17.721259583120396]
本稿では,この強力なSISRモデルを活用するために,事前訓練されたSingle Image Super Resolution (SISR)ネットワークにおける適応モジュールを提案する。
これは、LF画像の空間的および角的情報をさらに活用し、超解像性能を向上させるためのSISRネットワークの適応である。
論文 参考訳(メタデータ) (2022-07-25T03:43:56Z) - 3DVSR: 3D EPI Volume-based Approach for Angular and Spatial Light field
Image Super-resolution [2.127049691404299]
本稿では,高分解能光場を再構成するための3次元エピポーラ画像(EPI)に学習に基づくアプローチを提案する。
7つのデータセットから90の挑戦的な合成および実世界の光場シーンを広範囲に評価したところ、提案手法は最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-01-04T18:57:00Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z) - Learned Multi-View Texture Super-Resolution [76.82725815863711]
仮想3Dオブジェクトの高解像度テクスチャマップを,そのオブジェクトの低解像度画像の集合から作成できる超高解像度手法を提案する。
本アーキテクチャは, (i) 重なり合うビューの冗長性に基づくマルチビュー超解像の概念と, (ii) 高分解能画像構造の学習先行に基づくシングルビュー超解像の概念を統一する。
論文 参考訳(メタデータ) (2020-01-14T13:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。