論文の概要: CLE Diffusion: Controllable Light Enhancement Diffusion Model
- arxiv url: http://arxiv.org/abs/2308.06725v2
- Date: Mon, 28 Aug 2023 04:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 20:56:17.713638
- Title: CLE Diffusion: Controllable Light Enhancement Diffusion Model
- Title(参考訳): CLE拡散:制御可能な光強調拡散モデル
- Authors: Yuyang Yin, Dejia Xu, Chuangchuang Tan, Ping Liu, Yao Zhao, Yunchao
Wei
- Abstract要約: 制御可能な光拡張拡散モデル(CLE Diffusion)は、ユーザがリッチな制御性を提供するための新しい拡散フレームワークである。
条件付き拡散モデルを用いて構築された照明埋め込みは,ユーザが希望する明るさレベルを制御できるようにする。
- 参考スコア(独自算出の注目度): 80.62384873945197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low light enhancement has gained increasing importance with the rapid
development of visual creation and editing. However, most existing enhancement
algorithms are designed to homogeneously increase the brightness of images to a
pre-defined extent, limiting the user experience. To address this issue, we
propose Controllable Light Enhancement Diffusion Model, dubbed CLE Diffusion, a
novel diffusion framework to provide users with rich controllability. Built
with a conditional diffusion model, we introduce an illumination embedding to
let users control their desired brightness level. Additionally, we incorporate
the Segment-Anything Model (SAM) to enable user-friendly region
controllability, where users can click on objects to specify the regions they
wish to enhance. Extensive experiments demonstrate that CLE Diffusion achieves
competitive performance regarding quantitative metrics, qualitative results,
and versatile controllability. Project page:
https://yuyangyin.github.io/CLEDiffusion/
- Abstract(参考訳): 低光度エンハンスメントは、視覚創造と編集の急速な発展によって重要性を増している。
しかし、既存の拡張アルゴリズムのほとんどは、画像の輝度を予め定義された範囲まで均等に増やすように設計されており、ユーザエクスペリエンスを制限している。
この問題に対処するために,ユーザに対してリッチな制御性を提供する新しい拡散フレームワークであるCLE拡散(CLE Diffusion)を提案する。
条件拡散モデルを用いて構築し,ユーザが所望の明るさレベルを制御できるように照明埋め込みを導入する。
さらにsegment-anything model(sam)を組み込んで,ユーザがオブジェクトをクリックして拡張したい領域を指定することで,ユーザフレンドリなリージョン管理を可能にする。
大規模な実験により、CLE拡散は定量的メトリクス、質的結果、多目的制御性に関する競争性能を達成できることが示された。
プロジェクトページ: https://yuyangyin.github.io/clediffusion/
関連論文リスト
- Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving [45.97279394690308]
LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
論文 参考訳(メタデータ) (2024-04-07T04:10:06Z) - Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Self-correcting LLM-controlled Diffusion Models [83.26605445217334]
自己補正LPM制御拡散(SLD)を導入する
SLDは、入力プロンプトから画像を生成し、プロンプトとアライメントを評価し、生成した画像の不正確性に対して自己補正を行うフレームワークである。
提案手法は, 生成数, 属性結合, 空間的関係において, 不正確な世代の大部分を補正することができる。
論文 参考訳(メタデータ) (2023-11-27T18:56:37Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。