論文の概要: ALL-E: Aesthetics-guided Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2304.14610v2
- Date: Tue, 2 May 2023 15:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 11:22:10.337142
- Title: ALL-E: Aesthetics-guided Low-light Image Enhancement
- Title(参考訳): all-e:美的ガイド付き低光度画像エンハンスメント
- Authors: Ling Li, Dong Liang, Yuanhang Gao, Sheng-Jun Huang, Songcan Chen
- Abstract要約: 我々は、新しいパラダイム、すなわち美学誘導低光画像強調(ALL-E)を提案する。
LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークでのトレーニングを動機付けている。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
- 参考スコア(独自算出の注目度): 45.40896781156727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the performance of low-light image enhancement (LLE) is highly
subjective, thus making integrating human preferences into image enhancement a
necessity. Existing methods fail to consider this and present a series of
potentially valid heuristic criteria for training enhancement models. In this
paper, we propose a new paradigm, i.e., aesthetics-guided low-light image
enhancement (ALL-E), which introduces aesthetic preferences to LLE and
motivates training in a reinforcement learning framework with an aesthetic
reward. Each pixel, functioning as an agent, refines itself by recursive
actions, i.e., its corresponding adjustment curve is estimated sequentially.
Extensive experiments show that integrating aesthetic assessment improves both
subjective experience and objective evaluation. Our results on various
benchmarks demonstrate the superiority of ALL-E over state-of-the-art methods.
- Abstract(参考訳): 低照度画像強調(LLE)の性能評価は主観的であり,人間の嗜好を画像強調に組み込むことが不可欠である。
既存の手法ではこれを考慮せず、トレーニング強化モデルの潜在的なヒューリスティックな基準を提示する。
本稿では、LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークにおけるトレーニングを動機付ける、美学誘導型低照度画像強調(ALL-E)という新しいパラダイムを提案する。
エージェントとして機能する各ピクセルは、再帰作用、すなわち対応する調整曲線を逐次推定することによって、自分自身を洗練させる。
広範な実験により,美的評価の統合は主観的経験と客観的評価の両方を改善することが示された。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
関連論文リスト
- Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Confidence-aware Reward Optimization for Fine-tuning Text-to-Image Models [85.96013373385057]
人間のフィードバックデータに基づいて訓練された報酬関数を持つ微調整テキスト・ツー・イメージモデルは、モデル行動と人間の意図との整合性を実証した。
しかし、そのような報酬モデルによる過度な最適化は、単にプロキシの目的として機能し、微調整されたモデルの性能を損なう可能性がある。
本研究では,テキストプロンプトの集合に対して推定された報酬モデル信頼度に基づいてアライメントを強化する手法であるTextNormを提案する。
論文 参考訳(メタデータ) (2024-04-02T11:40:38Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images [67.14410374622699]
低照度画像のための知能的教師なしパーソナライズ・エンハンサー(iUPEnhancer)を提案する。
提案したiUP-Enhancerは、これらの相関関係とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
実験により,提案アルゴリズムは競合的な質的,定量的な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-15T07:16:10Z) - UIF: An Objective Quality Assessment for Underwater Image Enhancement [17.145844358253164]
水中画像の客観的評価のための水中画像忠実度(UIF)指標を提案する。
これらの画像の統計的特徴を利用して,自然度,鋭度,構造的特徴を抽出する。
実験の結果,提案したUIFは水中および汎用画像品質指標より優れていたことが確認された。
論文 参考訳(メタデータ) (2022-05-19T08:43:47Z) - The Loop Game: Quality Assessment and Optimization for Low-Light Image
Enhancement [50.29722732653095]
低照度画像強調手法の設計と最適化は知覚品質によって完全に駆動される必要があるという認識がますます高まっている。
本稿では,低照度画像の高画質化が視覚的品質の向上にどのように最適化されるかを示すループ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-20T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。