論文の概要: Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images
- arxiv url: http://arxiv.org/abs/2207.07317v1
- Date: Fri, 15 Jul 2022 07:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 13:18:47.939573
- Title: Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images
- Title(参考訳): 低照度画像のためのインテリジェントで教師なしのパーソナライズされたエンハンサー
- Authors: Naishan Zheng, Jie Huang, Qi Zhu, Man Zhou, Feng Zhao, Zheng-Jun Zha
- Abstract要約: 低照度画像のための知能的教師なしパーソナライズ・エンハンサー(iUPEnhancer)を提案する。
提案したiUP-Enhancerは、これらの相関関係とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
実験により,提案アルゴリズムは競合的な質的,定量的な結果が得られることを示した。
- 参考スコア(独自算出の注目度): 67.14410374622699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement is an inherently subjective process whose targets
vary with the user's aesthetic. Motivated by this, several personalized
enhancement methods have been investigated. However, the enhancement process
based on user preferences in these techniques is invisible, i.e., a "black
box". In this work, we propose an intelligible unsupervised personalized
enhancer (iUPEnhancer) for low-light images, which establishes the correlations
between the low-light and the unpaired reference images with regard to three
user-friendly attributions (brightness, chromaticity, and noise). The proposed
iUP-Enhancer is trained with the guidance of these correlations and the
corresponding unsupervised loss functions. Rather than a "black box" process,
our iUP-Enhancer presents an intelligible enhancement process with the above
attributions. Extensive experiments demonstrate that the proposed algorithm
produces competitive qualitative and quantitative results while maintaining
excellent flexibility and scalability. This can be validated by personalization
with single/multiple references, cross-attribution references, or merely
adjusting parameters.
- Abstract(参考訳): 低照度画像強調は、本来の主観的プロセスであり、その対象はユーザの美学によって異なる。
これにより、いくつかのパーソナライズされた強化手法が研究されている。
しかし、これらのテクニックにおけるユーザの好みに基づく拡張プロセスは、見えない、すなわち「ブラックボックス」である。
本研究では,ユーザフレンドリーな3つの属性(明度,彩度,ノイズ)に関して,低照度画像と非対向参照画像との相関性を確立するため,低照度画像に対する教師なしパーソナライズドエンハンサー(iupenhancer)を提案する。
提案したiUP-Enhancerは、これらの相関とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
ブラックボックス"プロセスではなく、当社のiup-enhancerは上記の属性を持つ理解可能な拡張プロセスを示します。
大規模な実験により,提案アルゴリズムは優れた柔軟性とスケーラビリティを維持しつつ,競争力のある質的,定量的な結果が得られることを示した。
これは、単一/複数参照、クロス属性参照、あるいは単にパラメータを調整することで検証できる。
関連論文リスト
- Debiasing Large Visual Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Enlighten-Your-Voice: When Multimodal Meets Zero-shot Low-light Image
Enhancement [25.073590934451055]
The Enlighten-Your-Voice is a multimodal enhancement framework that openlyriched user interaction through voice and textual command。
本モデルでは,Dual Collaborative Attention Module (DCAM) を具備し,異なる内容と色差に細心の注意を喚起する。
エンライエン・ユール・ヴォイス」は、教師なしゼロショットシナリオにおける顕著な一般化を示す。
論文 参考訳(メタデータ) (2023-12-15T06:57:05Z) - Empowering Low-Light Image Enhancer through Customized Learnable Priors [40.83461757842304]
そこで本稿では,学習先をカスタマイズする可能性を探る,低照度画像強調のためのパラダイムを提案する。
Masked Autoencoder(MAE)の強力な特徴表現機能によって、我々はMAEベースの照明とノイズ先行をカスタマイズする。
論文 参考訳(メタデータ) (2023-09-05T05:20:11Z) - ALL-E: Aesthetics-guided Low-light Image Enhancement [45.40896781156727]
我々は、新しいパラダイム、すなわち美学誘導低光画像強調(ALL-E)を提案する。
LLEに美的嗜好を導入し、美的報酬を伴う強化学習フレームワークでのトレーニングを動機付けている。
様々なベンチマークの結果は、最先端手法よりもall-Eの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-04-28T03:34:10Z) - Iterative Prompt Learning for Unsupervised Backlit Image Enhancement [86.90993077000789]
そこで本研究では,CLIP-LITと略称される,非教師なしのバックライト画像強調手法を提案する。
オープンワールドのCLIPはバックライト画像と well-lit 画像の区別に有効であることを示す。
提案手法は,学習フレームワークの更新と,学習結果を視覚的に満足するまでのネットワークの強化を交互に行う。
論文 参考訳(メタデータ) (2023-03-30T17:37:14Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Semantically Contrastive Learning for Low-light Image Enhancement [48.71522073014808]
低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題が好ましくないため、依然として困難である。
LLE(SCL-LLE)のための効果的な意味論的コントラスト学習パラダイムを提案する。
提案手法は6つの独立したクロスシーンデータセット上で,最先端のLLEモデルを上回る。
論文 参考訳(メタデータ) (2021-12-13T07:08:33Z) - A Black-Box Attack Model for Visually-Aware Recommender Systems [7.226144684379191]
視覚認識レコメンデータシステム(RS)は近年,研究の関心が高まっている。
本研究では,外部ソースに依存したRSを攻撃に対して脆弱にすることができることを示す。
ブラックボックスアプローチでは,新たなビジュアルアタックモデルがアイテムのスコアやランキングに効果的に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-11-05T08:43:12Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。