論文の概要: EmoStyle: Emotion-Driven Image Stylization
- arxiv url: http://arxiv.org/abs/2512.05478v1
- Date: Fri, 05 Dec 2025 07:15:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.93169
- Title: EmoStyle: Emotion-Driven Image Stylization
- Title(参考訳): EmoStyle: 感情駆動型画像スティル化
- Authors: Jingyuan Yang, Zihuan Bai, Hui Huang,
- Abstract要約: Affective Image Stylization (AIS)は、特定の感情を刺激し、コンテンツを保存するために芸術的なスタイルを適用するタスクである。
EmoStyleはAISの重要な課題に対処するために設計されたフレームワークであり、トレーニングデータの欠如や感情スタイルのマッピングを含んでいる。
私たちの研究は、感情駆動型イメージスタイリングの基礎を確立し、AI生成アートの創造的可能性を広げます。
- 参考スコア(独自算出の注目度): 8.734768359185106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Art has long been a profound medium for expressing emotions. While existing image stylization methods effectively transform visual appearance, they often overlook the emotional impact carried by styles. To bridge this gap, we introduce Affective Image Stylization (AIS), a task that applies artistic styles to evoke specific emotions while preserving content. We present EmoStyle, a framework designed to address key challenges in AIS, including the lack of training data and the emotion-style mapping. First, we construct EmoStyleSet, a content-emotion-stylized image triplet dataset derived from ArtEmis to support AIS. We then propose an Emotion-Content Reasoner that adaptively integrates emotional cues with content to learn coherent style queries. Given the discrete nature of artistic styles, we further develop a Style Quantizer that converts continuous style features into emotion-related codebook entries. Extensive qualitative and quantitative evaluations, including user studies, demonstrate that EmoStyle enhances emotional expressiveness while maintaining content consistency. Moreover, the learned emotion-aware style dictionary is adaptable to other generative tasks, highlighting its potential for broader applications. Our work establishes a foundation for emotion-driven image stylization, expanding the creative potential of AI-generated art.
- Abstract(参考訳): 芸術は長い間、感情を表現するための重要な媒体だった。
既存のイメージスタイリング手法は視覚的外観を効果的に変換するが、スタイルによってもたらされる感情的な影響をしばしば見落としている。
このギャップを埋めるために、コンテンツ保存中に特定の感情を誘発する芸術的スタイルを適用するAIS(Affective Image Stylization)を導入する。
EmoStyleはAISの重要な課題に対処するために設計されたフレームワークであり、トレーニングデータの欠如や感情スタイルのマッピングを含んでいる。
まず、AISをサポートするためにArtEmisから派生したコンテンツ感情スティル化された画像三重項データセットであるEmoStyleSetを構築する。
次に,情緒的手がかりをコンテンツと適応的に統合し,コヒーレントなスタイルクエリを学習する感情コンテンツ推論手法を提案する。
芸術的スタイルの独特な性質を考えると、連続的なスタイルの特徴を感情関連コードブックのエントリに変換するスタイル量化器をさらに発展させる。
EmoStyleは、コンテンツ一貫性を維持しながら感情表現性を向上することを示した。
さらに、学習された感情認識スタイルの辞書は、他の生成タスクにも適応可能であり、より広範な応用の可能性を強調している。
私たちの研究は、感情駆動型イメージスタイリングの基礎を確立し、AI生成アートの創造的可能性を広げます。
関連論文リスト
- CoEmoGen: Towards Semantically-Coherent and Scalable Emotional Image Content Generation [3.5418954219513625]
感情画像コンテンツ生成(EICG)は、与えられた感情カテゴリに基づいて、意味的に明確で、感情的に忠実な画像を生成することを目的としている。
セマンティックコヒーレンスと高いスケーラビリティで有名な新しいパイプラインであるCoEmoGenを提案する。
スケーラビリティを直感的に示すために,情緒的な芸術的イメージの大規模なデータセットであるEmoArtをキュレートする。
論文 参考訳(メタデータ) (2025-08-05T15:04:34Z) - EmoArt: A Multidimensional Dataset for Emotion-Aware Artistic Generation [16.77813911200113]
EmoArtデータセットは、これまでで最も包括的な感情アノテートされたアートデータセットの1つです。
56の絵画様式で132,664点のアートワークがあり、豊かな様式と文化的多様性を提供している。
EmoArtを用いて、テキストから感情的に整列した画像を生成するために、人気のあるテキスト・画像拡散モデルを評価する。
論文 参考訳(メタデータ) (2025-06-04T07:43:51Z) - EmoEdit: Evoking Emotions through Image Manipulation [62.416345095776656]
Affective Image Manipulation (AIM) は、特定の感情的な反応を誘発するために、ユーザーが提供する画像を修正しようとする。
本稿では,感情的影響を高めるためにコンテンツ修正を取り入れてAIMを拡張したEmoEditを紹介する。
本手法は定性的かつ定量的に評価され,従来の最先端技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-21T10:18:45Z) - EmoGen: Emotional Image Content Generation with Text-to-Image Diffusion
Models [11.901294654242376]
本稿では,感情カテゴリを与えられた意味的明瞭で感情に忠実な画像を生成するための新しいタスクである感情画像コンテンツ生成(EICG)を紹介する。
具体的には、感情空間を提案し、それを強力なコントラスト言語-画像事前学習(CLIP)空間と整合させるマッピングネットワークを構築する。
本手法は,最先端のテクスト・ツー・イメージ・アプローチを定量的・質的に上回る。
論文 参考訳(メタデータ) (2024-01-09T15:23:21Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。