論文の概要: Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing
- arxiv url: http://arxiv.org/abs/2207.09935v1
- Date: Wed, 20 Jul 2022 14:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:49:04.851213
- Title: Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing
- Title(参考訳): 超高精細画像復調の効率化に向けて
- Authors: Xin Yu, Peng Dai, Wenbo Li, Lan Ma, Jiajun Shen, Jia Li, Xiaojuan Qi
- Abstract要約: 本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 71.62289021118983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of mobile devices, modern widely-used mobile
phones typically allow users to capture 4K resolution (i.e.,
ultra-high-definition) images. However, for image demoireing, a challenging
task in low-level vision, existing works are generally carried out on
low-resolution or synthetic images. Hence, the effectiveness of these methods
on 4K resolution images is still unknown. In this paper, we explore moire
pattern removal for ultra-high-definition images. To this end, we propose the
first ultra-high-definition demoireing dataset (UHDM), which contains 5,000
real-world 4K resolution image pairs, and conduct a benchmark study on current
state-of-the-art methods. Further, we present an efficient baseline model
ESDNet for tackling 4K moire images, wherein we build a semantic-aligned
scale-aware module to address the scale variation of moire patterns. Extensive
experiments manifest the effectiveness of our approach, which outperforms
state-of-the-art methods by a large margin while being much more lightweight.
Code and dataset are available at https://xinyu-andy.github.io/uhdm-page.
- Abstract(参考訳): モバイル機器の急速な開発により、現代の携帯電話は4K解像度(超高解像度)の画像を撮影することができる。
しかし、低レベルの視覚では難しい課題である画像復調では、既存の作品が低解像度画像や合成画像で一般的に行われる。
したがって、4K解像度画像に対するこれらの手法の有効性はまだ不明である。
本稿では,超高精細画像に対するモアレパターン除去について検討する。
そこで本研究では,5000個の実世界の4K解像度画像ペアを含む,最初の超高精細復調データセット(UHDM)を提案する。
さらに、4Kモアレ画像を扱うための効率的なベースラインモデルESDNetを提案する。
広範な実験により,最先端メソッドをはるかに軽量ながら,最先端メソッドを圧倒する手法の有効性が示された。
コードとデータセットはhttps://xinyu-andy.github.io/uhdm-pageで入手できる。
関連論文リスト
- AADNet: Attention aware Demoir\'eing Network [2.3624953088402734]
モアレパターンは、モバイルデバイスやデジタルカメラで撮影された写真にしばしば現れる。
本稿では,高解像度画像復号化のための新しい軽量アーキテクチャであるAADNetを提案する。
論文 参考訳(メタデータ) (2024-03-13T09:48:11Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - Embracing Compact and Robust Architectures for Multi-Exposure Image
Fusion [50.598654017728045]
本稿では,堅牢なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを含む探索型パラダイムを提案する。
シーンリライティングと変形可能な畳み込みを利用して、カメラの動きに拘わらず、画像を正確に調整することができる。
我々は、様々な競争方式と比較して最先端の性能を実現し、一般的なシナリオと不整合シナリオに対するPSNRの4.02%と29.34%の改善を実現した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - 4K-HAZE: A Dehazing Benchmark with 4K Resolution Hazy and Haze-Free
Images [12.402054374952485]
まず、シーンの深さを推定し、光線とオブジェクトの反射率をシミュレートし、GANを用いて合成画像を実際の領域に移行する。
これらの合成画像を4K-HAZEデータセットと呼ばれるベンチマークにラップする。
このアプローチの最も魅力的な側面は、24G RAMをリアルタイムで(33fps)1つのGPU上で4Kイメージを実行する機能です。
論文 参考訳(メタデータ) (2023-03-28T09:39:29Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Hyperspectral Demosaicing of Snapshot Camera Images Using Deep Learning [1.8581514902689347]
ハイパースペクトルイメージングのためのシングルカメラワンショット技術により、複数のスペクトルバンドを同時にキャプチャすることができる。
近年のアプローチでは、画像データから直接情報を取り出すことができるニューラルネットワークが採用されている。
この研究は、新しい基底真理データセットに基づいてトレーニングされた並列ニューラルネットワークに基づく復調手順を提案する。
論文 参考訳(メタデータ) (2022-11-21T11:55:05Z) - Perceptual Image Enhancement for Smartphone Real-Time Applications [60.45737626529091]
本稿では,知覚的画像強調のための軽量ネットワークLPIENetを提案する。
我々のモデルは、ノイズアーティファクト、回折アーティファクト、ぼかし、HDR過剰露光を扱うことができる。
我々のモデルは、中級商用スマートフォンで1秒未満で2K解像度画像を処理することができる。
論文 参考訳(メタデータ) (2022-10-24T19:16:33Z) - Highly Accurate Dichotomous Image Segmentation [139.79513044546]
Dichotomous Image segmentation (DIS)と呼ばれる新しいタスクは、自然画像から高度に正確な物体を抽出することを目的としている。
私たちは、5,470の高解像度画像(例えば、2K、4K以上の画像)を含む最初の大規模データセットdis5Kを収集します。
また、Disdisモデルトレーニングのための特徴レベルとマスクレベルの両方のガイダンスを用いて、単純な中間監視ベースライン(IS-Net)を導入する。
論文 参考訳(メタデータ) (2022-03-06T20:09:19Z) - ORStereo: Occlusion-Aware Recurrent Stereo Matching for 4K-Resolution
Images [13.508624751092654]
Occlusion-aware Recurrent binocular Stereo matching (ORStereo) を施行した。
ORStereoは、タスクを初期予測の残差更新と改善として定式化し、大きな異なる範囲の高解像度画像を目にしないように一般化する。
合成画像と実世界の高解像度画像の両方でモデルの能力をテストします。
論文 参考訳(メタデータ) (2021-03-13T21:46:06Z) - Contextual Residual Aggregation for Ultra High-Resolution Image
Inpainting [12.839962012888199]
そこで本稿では,CRA(Contextual Residual Aggregation)機構を提案する。
CRA機構は、コンテキストパッチからの残基の重み付けにより、欠落した内容に対して高周波残基を生成する。
提案手法は,解像度512×512の小型画像に対して学習し,高解像度画像に対する推論を行い,良好な塗装品質を実現する。
論文 参考訳(メタデータ) (2020-05-19T18:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。