論文の概要: Benchmarking Ultra-High-Definition Image Reflection Removal
- arxiv url: http://arxiv.org/abs/2308.00265v2
- Date: Fri, 08 Nov 2024 15:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:52:26.707667
- Title: Benchmarking Ultra-High-Definition Image Reflection Removal
- Title(参考訳): 超高精細画像反射除去のベンチマーク
- Authors: Zhenyuan Zhang, Zhenbo Song, Kaihao Zhang, Zhaoxin Fan, Jianfeng Lu,
- Abstract要約: 本稿では,リフレクション除去のためのRRFormerというトランスフォーマーアーキテクチャを提案する。
RRFormerは非UHDデータセットと提案したUHDRRデータセットの両方で最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 25.02234305857731
- License:
- Abstract: Deep learning based methods have achieved significant success in the task of single image reflection removal (SIRR). However, the majority of these methods are focused on High-Definition/Standard-Definition (HD/SD) images, while ignoring higher resolution images such as Ultra-High-Definition (UHD) images. With the increasing prevalence of UHD images captured by modern devices, in this paper, we aim to address the problem of UHD SIRR. Specifically, we first synthesize two large-scale UHD datasets, UHDRR4K and UHDRR8K. The UHDRR4K dataset consists of $2,999$ and $168$ quadruplets of images for training and testing respectively, and the UHDRR8K dataset contains $1,014$ and $105$ quadruplets. To the best of our knowledge, these two datasets are the first largest-scale UHD datasets for SIRR. Then, we conduct a comprehensive evaluation of six state-of-the-art SIRR methods using the proposed datasets. Based on the results, we provide detailed discussions regarding the strengths and limitations of these methods when applied to UHD images. Finally, we present a transformer-based architecture named RRFormer for reflection removal. RRFormer comprises three modules, namely the Prepossessing Embedding Module, Self-attention Feature Extraction Module, and Multi-scale Spatial Feature Extraction Module. These modules extract hypercolumn features, global and partial attention features, and multi-scale spatial features, respectively. To ensure effective training, we utilize three terms in our loss function: pixel loss, feature loss, and adversarial loss. We demonstrate through experimental results that RRFormer achieves state-of-the-art performance on both the non-UHD dataset and our proposed UHDRR datasets. The code and datasets are publicly available at https://github.com/Liar-zzy/Benchmarking-Ultra-High-Definition-Single-Image-Reflection-Removal.
- Abstract(参考訳): 深層学習に基づく手法は、単一画像反射除去(SIRR)の課題において大きな成功を収めた。
しかし、これらの手法の大部分は、超高精細画像(UHD)のような高精細画像を無視しながら、高精細/高精細画像(HD/SD)に焦点を当てている。
本稿では,現代のデバイスが捉えたUHD画像の普及に伴い,UHD SIRRの問題点に対処することを目的とする。
具体的には,UHDRR4KとUHDRR8Kという2つの大規模UHDデータセットを合成する。
UHDRR4Kデータセットは、それぞれトレーニング用とテスト用のイメージの2,999ドルと168ドルで構成され、UHDRR8Kデータセットは1,014ドルと105ドルである。
我々の知る限りでは、これらの2つのデータセットはSIRRのための最初の大規模UHDデータセットである。
そして,提案したデータセットを用いて6つの最先端SIRR手法の総合評価を行う。
この結果をもとに,UHD画像に適用した場合のこれらの手法の強度と限界について,より詳細な考察を行った。
最後に、リフレクション除去のためのRRFormerというトランスフォーマーベースのアーキテクチャを提案する。
RRFormerは、Prepossessing Embedding Module、セルフアテンション特徴抽出モジュール、マルチスケール空間特徴抽出モジュールの3つのモジュールから構成されている。
これらのモジュールは、それぞれハイパーカラム特徴、大域的および部分的注意特徴、およびマルチスケール空間特徴を抽出する。
有効トレーニングを確保するために, 画素損失, 特徴損失, 対向損失の3つの項を利用する。
我々は、RRFormerが非UHDデータセットと提案したUHDRRデータセットの両方で最先端の性能を達成する実験結果を通して示す。
コードとデータセットはhttps://github.com/Liar-zzy/Benchmarking-Ultra-High-Definition-Single-Image-Reflection-Removalで公開されている。
関連論文リスト
- A Cycle Ride to HDR: Semantics Aware Self-Supervised Framework for Unpaired LDR-to-HDR Image Translation [0.0]
低ダイナミックレンジ(LDR)から高ダイナミックレンジ(High Dynamic Range)への画像変換は重要なコンピュータビジョン問題である。
現在の最先端の手法のほとんどは、モデルトレーニングのための高品質なペアLDR、データセットを必要とする。
本稿では,改良型サイクル整合対向アーキテクチャを提案し,未ペアのLDR,データセットをトレーニングに利用した。
論文 参考訳(メタデータ) (2024-10-19T11:11:58Z) - Rethinking Image Super-Resolution from Training Data Perspectives [54.28824316574355]
画像超解像(SR)におけるトレーニングデータの効果について検討する。
そこで我々は,自動画像評価パイプラインを提案する。
その結果, (i) 圧縮アーチファクトの少ないデータセット, (ii) 被写体数によって判断される画像内多様性の高いデータセット, (iii) ImageNet や PASS からの大量の画像がSR性能に肯定的な影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-09-01T16:25:04Z) - Assessing UHD Image Quality from Aesthetics, Distortions, and Saliency [51.36674160287799]
我々は3つの視点からUHD画像の品質を評価するためにマルチブランチディープニューラルネットワーク(DNN)を設計する。
UHD画像から低解像度画像から美的特徴を抽出する。
UHD画像から抽出したミニパッチからなる断片画像を用いて, 技術的歪みを測定する。
UHD画像の塩分含有量を検知し、収穫し、塩分領域から品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2024-09-01T15:26:11Z) - Ultra-High-Definition Image Restoration: New Benchmarks and A Dual Interaction Prior-Driven Solution [37.42524995828323]
UHD-Snow と UHD-Rain という名の UHD 雪と降雨のベンチマークを構築した。
各ベンチマークには3200の分解/クリアイメージ対の4K解像度が含まれている。
モデル設計における勾配と正規項を考慮した効率的なUHD画像復元法を提案する。
論文 参考訳(メタデータ) (2024-06-19T14:58:49Z) - Towards Ultra-High-Definition Image Deraining: A Benchmark and An Efficient Method [42.331058889312466]
本稿では,4K解像度で13,000枚の画像対を含む4K-Rain13kの大規模UHD画像デライニングデータセットについて述べる。
我々は,この課題をより効果的かつ効率的な視覚ベースアーキテクチャ (UDR-Mixer) を開発した。
論文 参考訳(メタデータ) (2024-05-27T11:45:08Z) - Embedding Fourier for Ultra-High-Definition Low-Light Image Enhancement [78.67036949708795]
UHD(Ultra-High-Definition)写真は、高度な撮像装置の標準構成となっている。
本稿では,Fourier変換をカスケードネットワークに組み込む新しいソリューションUHDFourを提案する。
また,2,150個の低雑音/正規クラー4K画像ペアを含むUHD LLIEデータセットである textbfUHD-LL をコントリビュートした。
論文 参考訳(メタデータ) (2023-02-23T07:43:41Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - WHU-Hi: UAV-borne hyperspectral with high spatial resolution (H2)
benchmark datasets for hyperspectral image classification [5.281167336437183]
wuhan uav-borne hyperspectral image (whu-hi)データセットと呼ばれる新しいベンチマークデータセットがハイパースペクトル画像分類のために構築された。
WHU-Hiデータセットは高いスペクトル分解能(nmレベル)と非常に高い空間分解能(cmレベル)を持つ。
WHU-Hiデータセットをベンチマークし、実験結果から、WHU-Hiは挑戦的なデータセットであることが示された。
論文 参考訳(メタデータ) (2020-12-27T11:28:37Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。