論文の概要: AffectGAN: Affect-Based Generative Art Driven by Semantics
- arxiv url: http://arxiv.org/abs/2109.14845v1
- Date: Thu, 30 Sep 2021 04:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 04:25:05.425877
- Title: AffectGAN: Affect-Based Generative Art Driven by Semantics
- Title(参考訳): AffectGAN: セマンティックスによる効果に基づく生成アート
- Authors: Theodoros Galanos, Antonios Liapis, Georgios N. Yannakakis
- Abstract要約: 本稿では,特定の感情状態を表す芸術的画像を生成する新しい手法を提案する。
我々のAffectGANモデルは、特定の意味的プロンプトや意図された感情的結果に基づいて画像を生成することができる。
AffectGANによって生成された32の画像の小さなデータセットは、50人の参加者によって、彼らが引き起こす特定の感情と、その品質と新規性の観点から注釈付けされている。
- 参考スコア(独自算出の注目度): 2.323282558557423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel method for generating artistic images that
express particular affective states. Leveraging state-of-the-art deep learning
methods for visual generation (through generative adversarial networks),
semantic models from OpenAI, and the annotated dataset of the visual art
encyclopedia WikiArt, our AffectGAN model is able to generate images based on
specific or broad semantic prompts and intended affective outcomes. A small
dataset of 32 images generated by AffectGAN is annotated by 50 participants in
terms of the particular emotion they elicit, as well as their quality and
novelty. Results show that for most instances the intended emotion used as a
prompt for image generation matches the participants' responses. This
small-scale study brings forth a new vision towards blending affective
computing with computational creativity, enabling generative systems with
intentionality in terms of the emotions they wish their output to elicit.
- Abstract(参考訳): 本稿では,特定の感情状態を表す芸術的画像を生成する新しい手法を提案する。
AffectGANモデルは、ビジュアル生成のための最先端のディープラーニング手法、OpenAIのセマンティックモデル、およびビジュアルアート百科事典WikiArtの注釈付きデータセットを活用することで、特定のあるいは広いセマンティックプロンプトと意図された感情結果に基づいて画像を生成することができる。
affectganが生成する32枚の画像の小さなデータセットは、50人の参加者によって、彼らが特定した感情と、その品質と新規性の観点から注釈付けされる。
その結果、ほとんどの場合、イメージ生成のプロンプトとして使用される意図された感情は、参加者の反応と一致していることがわかった。
この小さな研究は、感情的コンピューティングと計算的創造性を融合する新しいビジョンを生み出し、彼らの出力を誘惑する感情の観点で、意図的な生成システムを可能にする。
関連論文リスト
- Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Diffusion Based Augmentation for Captioning and Retrieval in Cultural
Heritage [28.301944852273746]
本稿では,文化遺産領域における限られた注釈付きデータとドメインシフトの課題に対処する新しいアプローチを提案する。
生成的視覚言語モデルを活用することで、キャプションに条件付けされた多種多様なアート作品を生成することにより、アートデータセットを増強する。
論文 参考訳(メタデータ) (2023-08-14T13:59:04Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - Language Does More Than Describe: On The Lack Of Figurative Speech in
Text-To-Image Models [63.545146807810305]
テキスト・ツー・イメージ拡散モデルでは、テキスト入力プロンプトから高品質な画像を生成することができる。
これらのモデルは、コンテンツベースのラベル付けプロトコルから収集されたテキストデータを用いて訓練されている。
本研究では,現在使用されているテキスト・画像拡散モデルのトレーニングに使用されている公開テキストデータの感情性,目的性,抽象化の程度を特徴付ける。
論文 参考訳(メタデータ) (2022-10-19T14:20:05Z) - ViNTER: Image Narrative Generation with Emotion-Arc-Aware Transformer [59.05857591535986]
様々な感情を「感情弧」として表現する時系列に焦点をあてた画像物語を生成するモデルViNTERを提案する。
手動評価と自動評価の両方の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-15T10:53:08Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - ArtEmis: Affective Language for Visual Art [46.643106054408285]
我々は視覚アートワークによって引き起こされる情緒体験に焦点を当てる。
ある画像に対して感じている支配的な感情を示すために、注釈を付けます。
これにより、目的コンテンツとイメージの感情的影響の両方に対して、リッチな信号セットが導かれる。
論文 参考訳(メタデータ) (2021-01-19T01:03:40Z) - Interpretable Image Emotion Recognition: A Domain Adaptation Approach Using Facial Expressions [11.808447247077902]
本稿では,ジェネリックイメージ中の感情を識別するための特徴に基づくドメイン適応手法を提案する。
これは、事前訓練されたモデルと、画像感情認識(IER)のための十分に注釈付けされたデータセットの限られた可用性の課題に対処する。
提案されたIERシステムは、IAPSaデータセットの60.98%、ArtPhotoデータセットの58.86%、FIデータセットの69.13%、EMOTICデータセットの58.06%の感情分類精度を示した。
論文 参考訳(メタデータ) (2020-11-17T02:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。