論文の概要: UNICE: Training A Universal Image Contrast Enhancer
- arxiv url: http://arxiv.org/abs/2507.17157v1
- Date: Wed, 23 Jul 2025 02:43:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.836523
- Title: UNICE: Training A Universal Image Contrast Enhancer
- Title(参考訳): UNICE:Universal Image Contrast Enhancerのトレーニング
- Authors: Ruodai Cui, Lei Zhang,
- Abstract要約: 既存の画像コントラスト強調法は、通常、露光下/露光補正、低照度、バックライト画像エンハンスメントなどの特定のタスクのために設計されている。
しかし、学習されたモデルは、特定のタスクの異なるデータセットでさえ、異なるタスクにわたって、低い一般化性能を示す。
提案手法,すなわちユニバーサル・コントラスト・エンハンサー (UNICE) は人為的なラベル付けが不要である。
既存の画像コントラスト拡張手法よりもはるかに強力な一般化性能を示し、また複数の非参照画像品質指標において、手動で作成したグランドトルースよりも優れていた。
- 参考スコア(独自算出の注目度): 5.592360872268223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing image contrast enhancement methods are typically designed for specific tasks such as under-/over-exposure correction, low-light and backlit image enhancement, etc. The learned models, however, exhibit poor generalization performance across different tasks, even across different datasets of a specific task. It is important to explore whether we can learn a universal and generalized model for various contrast enhancement tasks. In this work, we observe that the common key factor of these tasks lies in the need of exposure and contrast adjustment, which can be well-addressed if high-dynamic range (HDR) inputs are available. We hence collect 46,928 HDR raw images from public sources, and render 328,496 sRGB images to build multi-exposure sequences (MES) and the corresponding pseudo sRGB ground-truths via multi-exposure fusion. Consequently, we train a network to generate an MES from a single sRGB image, followed by training another network to fuse the generated MES into an enhanced image. Our proposed method, namely UNiversal Image Contrast Enhancer (UNICE), is free of costly human labeling. However, it demonstrates significantly stronger generalization performance than existing image contrast enhancement methods across and within different tasks, even outperforming manually created ground-truths in multiple no-reference image quality metrics. The dataset, code and model are available at https://github.com/BeyondHeaven/UNICE.
- Abstract(参考訳): 既存の画像コントラスト強調法は、通常、露光下/露光補正、低照度、バックライト画像エンハンスメントなどの特定のタスクのために設計されている。
しかし、学習されたモデルは、特定のタスクの異なるデータセットでさえ、異なるタスクにわたって、低い一般化性能を示す。
様々なコントラスト強化タスクに対して,普遍的で一般化されたモデルを学ぶことができるかを検討することが重要である。
本研究では,高ダイナミックレンジ(HDR)入力が利用可能である場合,これらのタスクの共通する要素が露出とコントラスト調整の必要性にあることを観察する。
そこで我々は,公開資料から46,928個のHDR生画像を収集し,328,496個のsRGB画像をレンダリングし,マルチ露光融合により,マルチ露光シーケンスと対応する擬似sRGB地下構造を構築する。
その結果、単一のsRGB画像からMESを生成するためにネットワークを訓練し、次いで生成されたMESを拡張画像に融合させるために別のネットワークを訓練する。
提案手法,すなわちユニバーサル・コントラスト・エンハンサー (UNICE) は人為的なラベル付けが不要である。
しかし,複数の非参照画像品質指標において,既存の画像コントラスト拡張手法よりも,手作業で生成した地味よりもはるかに高い性能を示す。
データセット、コード、モデルはhttps://github.com/BeyondHeaven/UNICE.comで入手できる。
関連論文リスト
- MatchAnything: Universal Cross-Modality Image Matching with Large-Scale Pre-Training [62.843316348659165]
ディープラーニングに基づく画像マッチングアルゴリズムは、人間を劇的に上回り、大量の対応を素早く正確に見つける。
本稿では, 画像間の基本構造を認識し, 一致させるためのモデル学習のために, 合成モード間学習信号を利用する大規模事前学習フレームワークを提案する。
我々の重要な発見は、我々のフレームワークで訓練されたマッチングモデルが、目に見えない8つのクロスモダリティ登録タスクにまたがる顕著な一般化性を達成することである。
論文 参考訳(メタデータ) (2025-01-13T18:37:36Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - DiffuseRAW: End-to-End Generative RAW Image Processing for Low-Light Images [5.439020425819001]
我々はRAW画像上の微調整潜伏拡散モデルに依存する新しい生成ISPを開発した。
我々は、有望な結果が得られる人気のエンドツーエンドの低照度データセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-12-13T03:39:05Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。