論文の概要: EmoCtrl: Controllable Emotional Image Content Generation
- arxiv url: http://arxiv.org/abs/2512.22437v1
- Date: Sat, 27 Dec 2025 02:18:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.052436
- Title: EmoCtrl: Controllable Emotional Image Content Generation
- Title(参考訳): EmoCtrl: 制御可能な感情画像コンテンツ生成
- Authors: Jingyuan Yang, Weibin Luo, Hui Huang,
- Abstract要約: 制御可能な感情画像コンテンツ生成(C-EICG)を導入する。
C-EICGは、対象の感情を表現しながら、所定のコンテンツ記述に忠実な画像を生成することを目的としている。
EmoCtrlは、コンテンツ、感情、感情的なプロンプトを付加したデータセットでサポートされている。
- 参考スコア(独自算出の注目度): 9.677863079897735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An image conveys meaning through both its visual content and emotional tone, jointly shaping human perception. We introduce Controllable Emotional Image Content Generation (C-EICG), which aims to generate images that remain faithful to a given content description while expressing a target emotion. Existing text-to-image models ensure content consistency but lack emotional awareness, whereas emotion-driven models generate affective results at the cost of content distortion. To address this gap, we propose EmoCtrl, supported by a dataset annotated with content, emotion, and affective prompts, bridging abstract emotions to visual cues. EmoCtrl incorporates textual and visual emotion enhancement modules that enrich affective expression via descriptive semantics and perceptual cues. The learned emotion tokens exhibit complementary effects, as demonstrated through ablations and visualizations. Quantatitive and qualatitive experiments demonstrate that EmoCtrl achieves faithful content and expressive emotion control, outperforming existing methods across multiple aspects. User studies confirm EmoCtrl's strong alignment with human preference. Moreover, EmoCtrl generalizes well to creative applications, further demonstrating the robustness and adaptability of the learned emotion tokens.
- Abstract(参考訳): イメージは視覚内容と感情のトーンの両方を通して意味を伝達し、人間の知覚を共同で形成する。
対象の感情を表現しながら、所定の内容記述に忠実な画像を生成することを目的とした、制御可能な感情画像コンテンツ生成(C-EICG)を導入する。
既存のテキスト・ツー・イメージモデルでは、コンテンツ一貫性は保証されるが、感情的認知は欠如している。
このギャップに対処するために、コンテンツ、感情、感情的なプロンプトを付加したデータセットでサポートされたEmoCtrlを提案し、抽象的な感情を視覚的手がかりにブリッジする。
EmoCtrlは、記述的意味論と知覚的手がかりを通じて感情表現を豊かにするテキストおよび視覚的感情増強モジュールを組み込んでいる。
学習された感情トークンは、アブレーションや可視化を通して示されるように、相補的な効果を示す。
量子的および定性的実験は、EmoCtrlが忠実な内容と表現力のある感情制御を達成し、複数の側面で既存の方法より優れていることを示した。
ユーザー研究は、EmoCtrlが人間の好みと強く一致していることを確認している。
さらに、EmoCtrlは、学習された感情トークンの堅牢性と適応性をさらに証明し、クリエイティブなアプリケーションによく適応する。
関連論文リスト
- Affective Image Editing: Shaping Emotional Factors via Text Descriptions [46.13506671212571]
AIEdiT for Affective Image Editing using Text descriptions。
我々は、連続的な感情スペクトルを構築し、ニュアンスな感情的要求を抽出する。
AIEdiTは、ユーザの感情的な要求を効果的に反映して、優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-24T13:46:57Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - EmoSEM: Segment and Explain Emotion Stimuli in Visual Art [25.539022846134543]
芸術的イメージが与えられたモデルでは、特定の人間の感情をトリガーするピクセル領域をピンポイントし、それに対する言語学的説明を生成する。
本稿では,感情理解能力を持つセグメンテーションフレームワークを実現するために,感情刺激・説明モデル(EmoSEM)モデルを提案する。
本手法は,低レベルの画素特徴から高レベルの感情解釈へのエンド・ツー・エンド・モデリングを実現し,視覚的感情分析のための第1の微粒化フレームワークを提供する。
論文 参考訳(メタデータ) (2025-04-20T15:40:00Z) - EmotiCrafter: Text-to-Emotional-Image Generation based on Valence-Arousal Model [23.26111054485357]
連続感情画像コンテンツ生成(C-EICG)の新たな課題について紹介する。
本稿では,テキストプロンプトとValence-Arousal値に基づいて画像を生成する感情画像生成モデルであるEmotiCrafterを提案する。
論文 参考訳(メタデータ) (2025-01-10T04:41:37Z) - EmoEdit: Evoking Emotions through Image Manipulation [62.416345095776656]
Affective Image Manipulation (AIM) は、特定の感情的な反応を誘発するために、ユーザーが提供する画像を修正しようとする。
本稿では,感情的影響を高めるためにコンテンツ修正を取り入れてAIMを拡張したEmoEditを紹介する。
本手法は定性的かつ定量的に評価され,従来の最先端技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-21T10:18:45Z) - EmoGen: Emotional Image Content Generation with Text-to-Image Diffusion
Models [11.901294654242376]
本稿では,感情カテゴリを与えられた意味的明瞭で感情に忠実な画像を生成するための新しいタスクである感情画像コンテンツ生成(EICG)を紹介する。
具体的には、感情空間を提案し、それを強力なコントラスト言語-画像事前学習(CLIP)空間と整合させるマッピングネットワークを構築する。
本手法は,最先端のテクスト・ツー・イメージ・アプローチを定量的・質的に上回る。
論文 参考訳(メタデータ) (2024-01-09T15:23:21Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。