論文の概要: Smell and Emotion: Recognising emotions in smell-related artworks
- arxiv url: http://arxiv.org/abs/2407.04592v1
- Date: Fri, 5 Jul 2024 15:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 13:01:09.243626
- Title: Smell and Emotion: Recognising emotions in smell-related artworks
- Title(参考訳): 匂いと感情:匂いにかかわる芸術作品における感情の認識
- Authors: Vishal Patoliya, Mathias Zinnen, Andreas Maier, Vincent Christlein,
- Abstract要約: 嗅覚関連アートワークから感情を認識することは技術的には実現可能であるが、改善の余地があることが示される。
パフォーマンスの小さな向上を実現し、将来の拡張のためのフィールドを開きます。
- 参考スコア(独自算出の注目度): 6.031813760519292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotions and smell are underrepresented in digital art history. In this exploratory work, we show that recognising emotions from smell-related artworks is technically feasible but has room for improvement. Using style transfer and hyperparameter optimization we achieve a minor performance boost and open up the field for future extensions.
- Abstract(参考訳): 感情や匂いは、デジタルアートの歴史においてあまり表現されていない。
本研究は, 嗅覚関連美術品から感情を認識することは技術的に実現可能であるが, 改善の余地があることを示す。
スタイル転送とハイパーパラメータ最適化を使用することで、パフォーマンスを向上し、将来の拡張のためのフィールドを開くことができます。
関連論文リスト
- Free Energy in a Circumplex Model of Emotion [3.4250441939241063]
感情科学では、感情はしばしば多次元として表現される。
本研究では,感情を2次元の原子価と覚醒スペクトルにマッピングすることで,感情の円積モデルを採用することを提案する。
情緒的状態において,先行と対象存在の操作が常識的変動をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-02T17:52:25Z) - EmoEdit: Evoking Emotions through Image Manipulation [62.416345095776656]
Affective Image Manipulation (AIM) は、特定の感情的な反応を誘発するために、ユーザーが提供する画像を修正しようとする。
本稿では,感情的影響を高めるためにコンテンツ修正を取り入れてAIMを拡張したEmoEditを紹介する。
本手法は定性的かつ定量的に評価され,従来の最先端技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-21T10:18:45Z) - A Unified and Interpretable Emotion Representation and Expression Generation [38.321248253111776]
我々はC2A2と呼ばれる解釈可能で統一された感情モデルを提案する。
生成した画像は豊かであり、微妙な表現を捉えていることを示す。
論文 参考訳(メタデータ) (2024-04-01T17:03:29Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - High-Level Context Representation for Emotion Recognition in Images [4.987022981158291]
画像から高レベルな文脈表現を抽出する手法を提案する。
このモデルは、この表現と感情を関連付けるために、1つのキューと1つのエンコードストリームに依存している。
我々のアプローチは従来のモデルよりも効率的であり、感情認識に関連する現実の問題に対処するために容易に展開できる。
論文 参考訳(メタデータ) (2023-05-05T13:20:41Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Using Knowledge-Embedded Attention to Augment Pre-trained Language
Models for Fine-Grained Emotion Recognition [0.0]
我々は,事前学習した自己意識モデルに外部知識を導入することで,微粒な感情認識を改善することに集中する。
結果と誤差解析は,複数のデータセットで過去のモデルより優れていた。
論文 参考訳(メタデータ) (2021-07-31T09:41:44Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。