論文の概要: HiLLIE: Human-in-the-Loop Training for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2505.02134v1
- Date: Sun, 04 May 2025 14:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.443774
- Title: HiLLIE: Human-in-the-Loop Training for Low-Light Image Enhancement
- Title(参考訳): HiLLIE: 低照度画像強調のための人間--the-Loopトレーニング
- Authors: Xiaorui Zhao, Xinyue Zhou, Peibei Cao, Junyu Lou, Shuhang Gu,
- Abstract要約: 本稿では,教師なしLLIEモデル出力の視覚的品質を改善するための,ループ内LLIEトレーニングフレームワークを提案する。
我々は、取得したラベルに符号化された人間の視覚的嗜好を学習するために、画像品質評価(IQA)モデルを用いる。
提案手法は,各段階において少量のペア・ランキング・アノテーションしか必要とせず,改良された出力の人間の視覚的評価をシミュレートするIQAモデルの性能を継続的に改善する。
- 参考スコア(独自算出の注目度): 17.6915952753551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing effective approaches to generate enhanced results that align well with human visual preferences for high-quality well-lit images remains a challenge in low-light image enhancement (LLIE). In this paper, we propose a human-in-the-loop LLIE training framework that improves the visual quality of unsupervised LLIE model outputs through iterative training stages, named HiLLIE. At each stage, we introduce human guidance into the training process through efficient visual quality annotations of enhanced outputs. Subsequently, we employ a tailored image quality assessment (IQA) model to learn human visual preferences encoded in the acquired labels, which is then utilized to guide the training process of an enhancement model. With only a small amount of pairwise ranking annotations required at each stage, our approach continually improves the IQA model's capability to simulate human visual assessment of enhanced outputs, thus leading to visually appealing LLIE results. Extensive experiments demonstrate that our approach significantly improves unsupervised LLIE model performance in terms of both quantitative and qualitative performance. The code and collected ranking dataset will be available at https://github.com/LabShuHangGU/HiLLIE.
- Abstract(参考訳): 低照度画像強調法(LLIE)の課題として,高精細画像に対する人間の視覚的嗜好に整合した改善結果を生成する効果的な手法の開発があげられる。
本稿では,非教師なしLLIEモデル出力の視覚的品質を,HullIEと呼ばれる反復学習段階を通じて向上させる,ループ型LLIEトレーニングフレームワークを提案する。
各段階において、強化された出力の効率的な視覚的品質アノテーションを通じて、トレーニングプロセスにヒューマンガイダンスを導入する。
その後、画像品質評価(IQA)モデルを用いて、取得したラベルに符号化された人間の視覚的嗜好を学習し、拡張モデルのトレーニングプロセスをガイドする。
提案手法は,各段階において少量のペアランキングアノテーションを必要とせず,改良された出力の人間の視覚的評価をシミュレートするIQAモデルの性能を継続的に改善し,LLIE結果を視覚的にアピールする。
大規模実験により,本手法は量的および定性的な性能の両面において,教師なしLLIEモデルの性能を著しく向上することが示された。
コードと収集されたランキングデータセットはhttps://github.com/LabShuHangGU/HiLLIE.comで入手できる。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - ALL-E: Aesthetics-guided Low-light Image Enhancement [45.40896781156727]
我々は、新しいパラダイム、すなわち美学誘導低光画像強調(ALL-E)を提案する。
LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークでのトレーニングを動機付けている。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-04-28T03:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。