論文の概要: ALL-E: Aesthetics-guided Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2304.14610v2
- Date: Tue, 2 May 2023 15:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 11:22:10.337142
- Title: ALL-E: Aesthetics-guided Low-light Image Enhancement
- Title(参考訳): all-e:美的ガイド付き低光度画像エンハンスメント
- Authors: Ling Li, Dong Liang, Yuanhang Gao, Sheng-Jun Huang, Songcan Chen
- Abstract要約: 我々は、新しいパラダイム、すなわち美学誘導低光画像強調(ALL-E)を提案する。
LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークでのトレーニングを動機付けている。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
- 参考スコア(独自算出の注目度): 45.40896781156727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the performance of low-light image enhancement (LLE) is highly
subjective, thus making integrating human preferences into image enhancement a
necessity. Existing methods fail to consider this and present a series of
potentially valid heuristic criteria for training enhancement models. In this
paper, we propose a new paradigm, i.e., aesthetics-guided low-light image
enhancement (ALL-E), which introduces aesthetic preferences to LLE and
motivates training in a reinforcement learning framework with an aesthetic
reward. Each pixel, functioning as an agent, refines itself by recursive
actions, i.e., its corresponding adjustment curve is estimated sequentially.
Extensive experiments show that integrating aesthetic assessment improves both
subjective experience and objective evaluation. Our results on various
benchmarks demonstrate the superiority of ALL-E over state-of-the-art methods.
- Abstract(参考訳): 低照度画像強調(LLE)の性能評価は主観的であり,人間の嗜好を画像強調に組み込むことが不可欠である。
既存の手法ではこれを考慮せず、トレーニング強化モデルの潜在的なヒューリスティックな基準を提示する。
本稿では、LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークにおけるトレーニングを動機付ける、美学誘導型低照度画像強調(ALL-E)という新しいパラダイムを提案する。
エージェントとして機能する各ピクセルは、再帰作用、すなわち対応する調整曲線を逐次推定することによって、自分自身を洗練させる。
広範な実験により,美的評価の統合は主観的経験と客観的評価の両方を改善することが示された。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
関連論文リスト
- Unveiling The Factors of Aesthetic Preferences with Explainable AI [0.0]
本研究の目的は,画像の美的嗜好の複雑な性質を機械学習によって明らかにすることである。
我々は,Random Forest,XGBoost,Support Vector Regression,Multilayer Perceptronなどの機械学習モデルを用いて,美的スコアを正確に予測する。
我々は3つの画像美的ベンチマーク実験を行い、属性の役割とその相互作用に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-11-24T11:06:22Z) - Image Aesthetics Assessment via Learnable Queries [59.313054821874864]
本稿では,IAA-LQを用いた画像美学評価手法を提案する。
フリーズされた画像エンコーダから得られた事前訓練された画像特徴から、学習可能なクエリを適応して美的特徴を抽出する。
実世界のデータに関する実験では、IAA-LQの利点が示され、SRCCとPLCCでそれぞれ2.2%、そして2.1%が最先端の手法に勝っている。
論文 参考訳(メタデータ) (2023-09-06T09:42:16Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Gap-closing Matters: Perceptual Quality Evaluation and Optimization of
Low-Light Image Enhancement [59.137796774008855]
低照度画像強調手法の最適化は、エンドユーザーが認識する視覚的品質によって導かれるべきであるという研究コミュニティの見解が高まりつつある。
主観的品質と客観的品質を体系的に評価するためのギャップ閉鎖フレームワークを提案する。
提案手法の有効性を,画質予測の精度と画像強調の知覚品質の両面から検証する。
論文 参考訳(メタデータ) (2023-02-22T15:57:03Z) - Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images [67.14410374622699]
低照度画像のための知能的教師なしパーソナライズ・エンハンサー(iUPEnhancer)を提案する。
提案したiUP-Enhancerは、これらの相関関係とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
実験により,提案アルゴリズムは競合的な質的,定量的な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-15T07:16:10Z) - UIF: An Objective Quality Assessment for Underwater Image Enhancement [17.145844358253164]
水中画像の客観的評価のための水中画像忠実度(UIF)指標を提案する。
これらの画像の統計的特徴を利用して,自然度,鋭度,構造的特徴を抽出する。
実験の結果,提案したUIFは水中および汎用画像品質指標より優れていたことが確認された。
論文 参考訳(メタデータ) (2022-05-19T08:43:47Z) - The Loop Game: Quality Assessment and Optimization for Low-Light Image
Enhancement [50.29722732653095]
低照度画像強調手法の設計と最適化は知覚品質によって完全に駆動される必要があるという認識がますます高まっている。
本稿では,低照度画像の高画質化が視覚的品質の向上にどのように最適化されるかを示すループ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-20T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。