論文の概要: LumiCtrl : Learning Illuminant Prompts for Lighting Control in Personalized Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2512.17489v1
- Date: Fri, 19 Dec 2025 11:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.367455
- Title: LumiCtrl : Learning Illuminant Prompts for Lighting Control in Personalized Text-to-Image Models
- Title(参考訳): LumiCtrl : 個人化テキスト・画像モデルにおける照明制御のための学習用イルミナントプロンプト
- Authors: Muhammad Atif Butt, Kai Wang, Javier Vazquez-Corral, Joost Van De Weijer,
- Abstract要約: 本稿では,LumiCtrlという名前の発光パーソナライズ手法を提案する。
LumiCtrl は3つの基本成分から構成される: 物体の像が与えられた場合、標準光源の下で微調整された変種を生成するために、Planckian 軌跡に沿って物理ベースのイルミナント増量を適用する。
その結果,本手法は既存のパーソナライゼーションベースラインに比べて照度,美的品質,シーンコヒーレンスを著しく向上することがわかった。
- 参考スコア(独自算出の注目度): 29.41857508306698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current text-to-image (T2I) models have demonstrated remarkable progress in creative image generation, yet they still lack precise control over scene illuminants, which is a crucial factor for content designers aiming to manipulate the mood, atmosphere, and visual aesthetics of generated images. In this paper, we present an illuminant personalization method named LumiCtrl that learns an illuminant prompt given a single image of an object. LumiCtrl consists of three basic components: given an image of the object, our method applies (a) physics-based illuminant augmentation along the Planckian locus to create fine-tuning variants under standard illuminants; (b) edge-guided prompt disentanglement using a frozen ControlNet to ensure prompts focus on illumination rather than structure; and (c) a masked reconstruction loss that focuses learning on the foreground object while allowing the background to adapt contextually, enabling what we call contextual light adaptation. We qualitatively and quantitatively compare LumiCtrl against other T2I customization methods. The results show that our method achieves significantly better illuminant fidelity, aesthetic quality, and scene coherence compared to existing personalization baselines. A human preference study further confirms strong user preference for LumiCtrl outputs. The code and data will be released upon publication.
- Abstract(参考訳): 現在のテキスト・ツー・イメージ(T2I)モデルは、創造的な画像生成において顕著な進歩を見せているが、シーン照度を正確に制御することは、生成した画像の気分、雰囲気、視覚的美を操作しようとするコンテンツデザイナーにとって重要な要素である。
本稿では,LumiCtrlという発光パーソナライズ手法を提案する。
LumiCtrlは3つの基本的な構成要素で構成されている。
(a)標準照度の下で微調整された変種を作成するために、プランクアン軌跡に沿った物理ベースの照度増強
b)凍結制御ネットを用いたエッジ誘導の急激なゆがみ
(c) 前景物体の学習に焦点を合わせながら背景を文脈的に適応させ、文脈光適応と呼ぶものを実現するマスク付き再構成損失。
我々はLumiCtrlと他のT2Iカスタマイズ手法を質的に定量的に比較する。
その結果,本手法は既存のパーソナライゼーションベースラインに比べて照度,美的品質,シーンコヒーレンスを著しく向上することがわかった。
人間の嗜好調査は、LumiCtrl出力に対する強いユーザの嗜好をさらに裏付ける。
コードとデータは公開時に公開される。
関連論文リスト
- LightSwitch: Multi-view Relighting with Material-guided Diffusion [73.5965603000002]
LightSwitchは、新しいファインチューニングされたマテリアルライティング拡散フレームワークである。
我々の2Dリライティング予測品質は、画像から直接リライティングする過去の最先端リライティングよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-08T17:59:52Z) - SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - DreamLight: Towards Harmonious and Consistent Image Relighting [41.90032795389507]
ユニバーサル・イメージ・リライティングのためのDreamLightというモデルを導入する。
照明や色調の美的均一性を保ちつつ、被験者をシームレスに新しい背景に合成することができる。
論文 参考訳(メタデータ) (2025-06-17T14:05:24Z) - LightLab: Controlling Light Sources in Images with Diffusion Models [49.83835236202516]
画像中の光源を微細かつパラメトリックに制御する拡散法を提案する。
我々は、光の線形性を利用して、ターゲット光源または周囲照明の制御された光の変化を描写した画像対を合成する。
提案手法は, ユーザの好みに基づいて, 従来の方法よりも優れた光編集結果が得られることを示す。
論文 参考訳(メタデータ) (2025-05-14T17:57:27Z) - LumiNet: Latent Intrinsics Meets Diffusion Models for Indoor Scene Relighting [26.40653597095593]
ソースイメージとターゲットのライティングイメージが与えられた後、LumiNetはターゲットのライティングをキャプチャするソースシーンの依存バージョンを合成する。
LumiNetは2つの異なる画像から遅延表現を処理します。
論文 参考訳(メタデータ) (2024-11-29T18:59:11Z) - MetaGS: A Meta-Learned Gaussian-Phong Model for Out-of-Distribution 3D Scene Relighting [63.5925701087252]
アウト・オブ・ディストリビューション(OOD) 3Dリライティングは、目に見えない照明条件下での新しいビュー合成を必要とする。
この課題に対処するためにMetaGSを2つの視点から紹介する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - Relightful Harmonization: Lighting-aware Portrait Background Replacement [23.19641174787912]
背景画像を用いた背景像に対する高度な照明効果をシームレスに調和させるライティング対応拡散モデルであるRelightful Harmonizationを導入する。
まず、拡散モデルを用いて、対象画像の背景から照明情報をエンコードする照明表現モジュールを導入する。
第2に、画像背景から学習した照明特徴と、パノラマ環境マップから学習した照明特徴とを整列するアライメントネットワークを導入する。
論文 参考訳(メタデータ) (2023-12-11T23:20:31Z) - Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of Possibly Glossy Objects [58.25772313290338]
提案する多視点画像からシーンの表面, 材料, 照明を復元する手法を開発した。
追加のデータは必要ないし、光沢のあるオブジェクトや明るい照明も扱える。
論文 参考訳(メタデータ) (2023-05-29T07:44:19Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。