論文の概要: EmoArt: A Multidimensional Dataset for Emotion-Aware Artistic Generation
- arxiv url: http://arxiv.org/abs/2506.03652v1
- Date: Wed, 04 Jun 2025 07:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.201129
- Title: EmoArt: A Multidimensional Dataset for Emotion-Aware Artistic Generation
- Title(参考訳): EmoArt:感情認識型アートジェネレーションのための多次元データセット
- Authors: Cheng Zhang, Hongxia xie, Bin Wen, Songhan Zuo, Ruoxuan Zhang, Wen-huang Cheng,
- Abstract要約: EmoArtデータセットは、これまでで最も包括的な感情アノテートされたアートデータセットの1つです。
56の絵画様式で132,664点のアートワークがあり、豊かな様式と文化的多様性を提供している。
EmoArtを用いて、テキストから感情的に整列した画像を生成するために、人気のあるテキスト・画像拡散モデルを評価する。
- 参考スコア(独自算出の注目度): 16.77813911200113
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid advancement of diffusion models, text-to-image generation has achieved significant progress in image resolution, detail fidelity, and semantic alignment, particularly with models like Stable Diffusion 3.5, Stable Diffusion XL, and FLUX 1. However, generating emotionally expressive and abstract artistic images remains a major challenge, largely due to the lack of large-scale, fine-grained emotional datasets. To address this gap, we present the EmoArt Dataset -- one of the most comprehensive emotion-annotated art datasets to date. It contains 132,664 artworks across 56 painting styles (e.g., Impressionism, Expressionism, Abstract Art), offering rich stylistic and cultural diversity. Each image includes structured annotations: objective scene descriptions, five key visual attributes (brushwork, composition, color, line, light), binary arousal-valence labels, twelve emotion categories, and potential art therapy effects. Using EmoArt, we systematically evaluate popular text-to-image diffusion models for their ability to generate emotionally aligned images from text. Our work provides essential data and benchmarks for emotion-driven image synthesis and aims to advance fields such as affective computing, multimodal learning, and computational art, enabling applications in art therapy and creative design. The dataset and more details can be accessed via our project website.
- Abstract(参考訳): 拡散モデルの急速な進歩により、画像解像度、詳細忠実度、セマンティックアライメントにおいて、特に安定拡散3.5、安定拡散XL、FLUX 1のようなモデルにおいて大きな進歩を遂げた。
しかし、感情的に表現的で抽象的な芸術的イメージを生成することは、大部分は大規模できめ細かい感情的データセットがないため、大きな課題である。
このギャップに対処するため、私たちはEmoArt Datasetを紹介します。
56の絵画様式(例えば、印象主義、表現主義、抽象芸術)にまたがる132,664点の美術品があり、豊かな様式と文化的多様性を提供している。
それぞれの画像には、客観的なシーン記述、5つの重要な視覚特性(ブラシワーク、構成、色、線、光)、バイナリな覚醒ラベル、12の感情カテゴリ、潜在的なアートセラピー効果など、構造化されたアノテーションが含まれている。
EmoArtを用いて、テキストから感情的に整列した画像を生成するために、人気のあるテキスト・画像拡散モデルを体系的に評価する。
我々の研究は、感情駆動型画像合成に不可欠なデータとベンチマークを提供し、感情コンピューティング、マルチモーダル学習、計算芸術などの分野を進歩させ、アートセラピーや創造的デザインの応用を可能にすることを目的としている。
データセットや詳細は、プロジェクトのWebサイトからアクセスできます。
関連論文リスト
- Make Me Happier: Evoking Emotions Through Image Diffusion Models [36.40067582639123]
そこで本研究では,感情を刺激するイメージを合成し,本来のシーンのセマンティクスと構造を保ちながら,感情を刺激するイメージを合成することを目的とした,感情誘発画像生成の新たな課題を提案する。
感情編集データセットが不足しているため、34万対の画像とその感情アノテーションからなるユニークなデータセットを提供する。
論文 参考訳(メタデータ) (2024-03-13T05:13:17Z) - CreativeSynth: Cross-Art-Attention for Artistic Image Synthesis with Multimodal Diffusion [73.08710648258985]
レイアウト、視点、形状、意味といった重要な絵の属性は、しばしばスタイル転送によって伝達され、表現されない。
大規模な事前訓練された画像生成モデルは、大量の高品質な画像を合成できることを実証している。
我々の主要なアイデアは、スタイルを現実の世界に移すのではなく、多モーダルな意味情報を合成ガイドとしてアートに組み込むことである。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - EmoGen: Emotional Image Content Generation with Text-to-Image Diffusion
Models [11.901294654242376]
本稿では,感情カテゴリを与えられた意味的明瞭で感情に忠実な画像を生成するための新しいタスクである感情画像コンテンツ生成(EICG)を紹介する。
具体的には、感情空間を提案し、それを強力なコントラスト言語-画像事前学習(CLIP)空間と整合させるマッピングネットワークを構築する。
本手法は,最先端のテクスト・ツー・イメージ・アプローチを定量的・質的に上回る。
論文 参考訳(メタデータ) (2024-01-09T15:23:21Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - ArtEmis: Affective Language for Visual Art [46.643106054408285]
我々は視覚アートワークによって引き起こされる情緒体験に焦点を当てる。
ある画像に対して感じている支配的な感情を示すために、注釈を付けます。
これにより、目的コンテンツとイメージの感情的影響の両方に対して、リッチな信号セットが導かれる。
論文 参考訳(メタデータ) (2021-01-19T01:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。