論文の概要: Benchmarking Ultra-High-Definition Image Reflection Removal
- arxiv url: http://arxiv.org/abs/2308.00265v1
- Date: Tue, 1 Aug 2023 03:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:31:35.544901
- Title: Benchmarking Ultra-High-Definition Image Reflection Removal
- Title(参考訳): 超高精細画像反射除去ベンチマーク
- Authors: Zhenyuan Zhang, Zhenbo Song, Kaihao Zhang, Wenhan Luo, Zhaoxin Fan,
Jianfeng Lu
- Abstract要約: 本稿では,リフレクション除去のためのRRFormerというトランスフォーマーアーキテクチャを提案する。
RRFormerは非UHDデータセットと提案したUHDRRデータセットの両方で最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 43.34342640578687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based methods have achieved significant success in the task of
single image reflection removal (SIRR). However, the majority of these methods
are focused on High-Definition/Standard-Definition (HD/SD) images, while
ignoring higher resolution images such as Ultra-High-Definition (UHD) images.
With the increasing prevalence of UHD images captured by modern devices, in
this paper, we aim to address the problem of UHD SIRR. Specifically, we first
synthesize two large-scale UHD datasets, UHDRR4K and UHDRR8K. The UHDRR4K
dataset consists of $2,999$ and $168$ quadruplets of images for training and
testing respectively, and the UHDRR8K dataset contains $1,014$ and $105$
quadruplets. To the best of our knowledge, these two datasets are the first
largest-scale UHD datasets for SIRR. Then, we conduct a comprehensive
evaluation of six state-of-the-art SIRR methods using the proposed datasets.
Based on the results, we provide detailed discussions regarding the strengths
and limitations of these methods when applied to UHD images. Finally, we
present a transformer-based architecture named RRFormer for reflection removal.
RRFormer comprises three modules, namely the Prepossessing Embedding Module,
Self-attention Feature Extraction Module, and Multi-scale Spatial Feature
Extraction Module. These modules extract hypercolumn features, global and
partial attention features, and multi-scale spatial features, respectively. To
ensure effective training, we utilize three terms in our loss function: pixel
loss, feature loss, and adversarial loss. We demonstrate through experimental
results that RRFormer achieves state-of-the-art performance on both the non-UHD
dataset and our proposed UHDRR datasets. The code and datasets are publicly
available at
https://github.com/Liar-zzy/Benchmarking-Ultra-High-Definition-Single-Image-Reflection-Removal.
- Abstract(参考訳): 深層学習に基づく手法は、単一画像反射除去(SIRR)の課題において大きな成功を収めた。
しかし、これらの手法の大部分は高精細/標準精細(hd/sd)画像に焦点を合わせ、超精細(uhd)画像のような高精細画像は無視している。
本稿では,現代のデバイスが捉えたUHD画像の普及に伴い,UHD SIRRの問題点に対処することを目的とする。
具体的には,UHDRR4KとUHDRR8Kという2つの大規模UHDデータセットを合成する。
UHDRR4Kデータセットは、それぞれトレーニング用とテスト用のイメージの2999ドルと168ドルの四つ組で構成され、UHDRR8Kデータセットは1,014ドルと105ドルの四つ組を含んでいる。
我々の知る限りでは、これらの2つのデータセットはSIRRのための最初の大規模UHDデータセットである。
そして,提案したデータセットを用いて6つの最先端SIRR手法の総合評価を行う。
この結果に基づき,これらの手法の長所と限界について,uhd画像に適用した場合の詳細な議論を行う。
最後に,リフレクション除去のためのrrformerというトランスフォーマティブアーキテクチャを提案する。
RRFormerは、Prepossessing Embedding Module、セルフアテンション特徴抽出モジュール、マルチスケール空間特徴抽出モジュールの3つのモジュールから構成されている。
これらのモジュールはそれぞれ、ハイパーカラム特徴、大域的および部分的注意特徴、およびマルチスケール空間特徴を抽出する。
有効トレーニングを確保するために, 画素損失, 特徴損失, 対向損失の3つの項を利用する。
我々は、RRFormerが非UHDデータセットと提案したUHDRRデータセットの両方で最先端の性能を達成する実験結果を通して示す。
コードとデータセットはhttps://github.com/Liar-zzy/Benchmarking-Ultra-High-Definition-Single-Image-Reflection-Removalで公開されている。
関連論文リスト
- Towards Real-World HDR Video Reconstruction: A Large-Scale Benchmark Dataset and A Two-Stage Alignment Network [16.39592423564326]
既存の手法は主に合成データセットに基づいて訓練されており、実際のシーンでは性能が良くない。
HDRビデオ再構成のための大規模実世界のベンチマークデータセットであるReal-Vを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:29:26Z) - Generating Content for HDR Deghosting from Frequency View [56.103761824603644]
近年の拡散モデル (DM) はHDRイメージング分野に導入されている。
DMは画像全体を推定するために大きなモデルで広範囲の反復を必要とする。
ゴーストフリーHDRイメージングのための低周波数対応拡散(LF-Diff)モデルを提案する。
論文 参考訳(メタデータ) (2024-04-01T01:32:11Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - Embedding Fourier for Ultra-High-Definition Low-Light Image Enhancement [78.67036949708795]
UHD(Ultra-High-Definition)写真は、高度な撮像装置の標準構成となっている。
本稿では,Fourier変換をカスケードネットワークに組み込む新しいソリューションUHDFourを提案する。
また,2,150個の低雑音/正規クラー4K画像ペアを含むUHD LLIEデータセットである textbfUHD-LL をコントリビュートした。
論文 参考訳(メタデータ) (2023-02-23T07:43:41Z) - Real-World Image Super-Resolution by Exclusionary Dual-Learning [98.36096041099906]
実世界の画像超解像は,高品質な画像を得るための実用的な画像復元問題である。
深層学習に基づく手法は、現実世界の超解像データセットの復元に期待できる品質を実現している。
本稿では,RWSR-EDL(Real-World Image Super-Resolution by Exclusionary Dual-Learning)を提案する。
論文 参考訳(メタデータ) (2022-06-06T13:28:15Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - WHU-Hi: UAV-borne hyperspectral with high spatial resolution (H2)
benchmark datasets for hyperspectral image classification [5.281167336437183]
wuhan uav-borne hyperspectral image (whu-hi)データセットと呼ばれる新しいベンチマークデータセットがハイパースペクトル画像分類のために構築された。
WHU-Hiデータセットは高いスペクトル分解能(nmレベル)と非常に高い空間分解能(cmレベル)を持つ。
WHU-Hiデータセットをベンチマークし、実験結果から、WHU-Hiは挑戦的なデータセットであることが示された。
論文 参考訳(メタデータ) (2020-12-27T11:28:37Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。