論文の概要: Learning a self-supervised tone mapping operator via feature contrast
masking loss
- arxiv url: http://arxiv.org/abs/2110.09866v1
- Date: Tue, 19 Oct 2021 11:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 14:36:48.755559
- Title: Learning a self-supervised tone mapping operator via feature contrast
masking loss
- Title(参考訳): 特徴コントラストマスキング損失による自己教師付きトーンマッピング演算子の学習
- Authors: Chao Wang, Bin Chen, Hans-Peter Seidel, Karol Myszkowski, and Ana
Serrano
- Abstract要約: 本稿では,各HDR画像に対して,テスト時に訓練された学習に基づく自己教師付きトーンマッピング演算子を提案する。
提案手法の主な新規性は、コントラスト知覚に関する基本的な知識に基づいて、慎重に設計された損失関数である。
提案手法は,一組の固定パラメータで既存手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 28.17752778285868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High Dynamic Range (HDR) content is becoming ubiquitous due to the rapid
development of capture technologies. Nevertheless, the dynamic range of common
display devices is still limited, therefore tone mapping (TM) remains a key
challenge for image visualization. Recent work has demonstrated that neural
networks can achieve remarkable performance in this task when compared to
traditional methods, however, the quality of the results of these
learning-based methods is limited by the training data. Most existing works use
as training set a curated selection of best-performing results from existing
traditional tone mapping operators (often guided by a quality metric),
therefore, the quality of newly generated results is fundamentally limited by
the performance of such operators. This quality might be even further limited
by the pool of HDR content that is used for training. In this work we propose a
learning-based self-supervised tone mapping operator that is trained at test
time specifically for each HDR image and does not need any data labeling. The
key novelty of our approach is a carefully designed loss function built upon
fundamental knowledge on contrast perception that allows for directly comparing
the content in the HDR and tone mapped images. We achieve this goal by
reformulating classic VGG feature maps into feature contrast maps that
normalize local feature differences by their average magnitude in a local
neighborhood, allowing our loss to account for contrast masking effects. We
perform extensive ablation studies and exploration of parameters and
demonstrate that our solution outperforms existing approaches with a single set
of fixed parameters, as confirmed by both objective and subjective metrics.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)コンテンツは、キャプチャ技術の急速な発展により、ユビキタスになりつつある。
それでも、共通ディスプレイデバイスのダイナミックレンジはまだ限られているため、トーンマッピング(tm)は画像可視化の重要な課題である。
近年の研究では、従来の手法と比較してニューラルネットワークが優れた性能を発揮することが示されているが、これらの学習に基づく手法の結果の質は、トレーニングデータによって制限されている。
既存の作品の多くは、既存のトーンマッピング演算子(しばしば品質基準で導かれる)の最良の結果のキュレートされた選択をトレーニングセットとして使用するため、新たに生成された結果の品質は、そのような演算子のパフォーマンスによって根本的に制限される。
この品質は、トレーニングに使用されるHDRコンテンツのプールによってさらに制限される可能性がある。
本研究では,各hdr画像に対してテスト時間に訓練し,データラベリングを必要とせず,学習に基づく自己教師付きトーンマッピング演算子を提案する。
提案手法の重要な特徴は,コントラスト知覚の基本的な知識に基づいて,HDRとトーンマップ画像の内容を直接比較可能な,慎重に設計された損失関数である。
我々は,従来のVGG特徴マップを特徴コントラストマップに再構成し,地域住民の平均的特徴差を正規化することで,コントラストマスキング効果を考慮し,この目標を達成する。
我々は,パラメータの広範囲なアブレーション研究と探索を行い,客観的な指標と主観的な指標の両方で確認されたように,既存のアプローチを1セットの固定パラメータで上回っていることを示す。
関連論文リスト
- Deep chroma compression of tone-mapped images [46.07829363710451]
本稿では,HDRトーンマップ画像の高速かつ信頼性の高いクロマ圧縮のための生成逆ネットワークを提案する。
提案手法は,色精度において,最先端の画像生成および拡張ネットワークよりも優れることを示す。
このモデルはリアルタイムのパフォーマンスを実現し,計算資源が限られているデバイスに展開する上で有望な結果を示す。
論文 参考訳(メタデータ) (2024-09-24T12:31:55Z) - Retinex-RAWMamba: Bridging Demosaicing and Denoising for Low-Light RAW Image Enhancement [71.13353154514418]
低照度画像の強化、特に生ドメインからsRGBドメインへのマッピングのようなクロスドメインタスクは、依然として大きな課題である。
RAWMambaと呼ばれる新しいMambaスキャニング機構を提案する。
また,Retinex の先行したRetinex Decomposition Module (RDM) も提案する。
論文 参考訳(メタデータ) (2024-09-11T06:12:03Z) - Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Unpaired Learning for High Dynamic Range Image Tone Mapping [3.867363075280544]
本稿では,低ダイナミックレンジ (LDR) の再生を目標とする新たなトーンマッピング手法について述べる。
このゴールは、無関係なHDRとLDR画像のセットに基づいた非対向的トレーニングの使用を可能にする。
論文 参考訳(メタデータ) (2021-10-30T09:58:55Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。