論文の概要: Emosaic: Visualizing Affective Content of Text at Varying Granularity
- arxiv url: http://arxiv.org/abs/2002.10096v1
- Date: Mon, 24 Feb 2020 07:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:23:44.787122
- Title: Emosaic: Visualizing Affective Content of Text at Varying Granularity
- Title(参考訳): emosaic: 様々な粒度でテキストの感情コンテンツを可視化する
- Authors: Philipp Geuder, Marie Claire Leidinger, Martin von Lupin, Marian
D\"ork, Tobias Schr\"oder
- Abstract要約: エモザイク(Emosaic)は、テキストの感情的なトーンを可視化するツールである。
我々は、人間の感情の3次元モデルを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Emosaic, a tool for visualizing the emotional tone of
text documents, considering multiple dimensions of emotion and varying levels
of semantic granularity. Emosaic is grounded in psychological research on the
relationship between language, affect, and color perception. We capitalize on
an established three-dimensional model of human emotion: valence (good, nice
vs. bad, awful), arousal (calm, passive vs. exciting, active) and dominance
(weak, controlled vs. strong, in control). Previously, multi-dimensional models
of emotion have been used rarely in visualizations of textual data, due to the
perceptual challenges involved. Furthermore, until recently most text
visualizations remained at a high level, precluding closer engagement with the
deep semantic content of the text. Informed by empirical studies, we introduce
a color mapping that translates any point in three-dimensional affective space
into a unique color. Emosaic uses affective dictionaries of words annotated
with the three emotional parameters of the valence-arousal-dominance model to
extract emotional meanings from texts and then assigns to them corresponding
color parameters of the hue-saturation-brightness color space. This approach of
mapping emotion to color is aimed at helping readers to more easily grasp the
emotional tone of the text. Several features of Emosaic allow readers to
interactively explore the affective content of the text in more detail; e.g.,
in aggregated form as histograms, in sequential form following the order of
text, and in detail embedded into the text display itself. Interaction
techniques have been included to allow for filtering and navigating of text and
visualizations.
- Abstract(参考訳): 本稿では,感情の多次元と意味的粒度の違いを考慮し,テキスト文書の感情トーンを可視化するツールであるemosaicを提案する。
エモザイクは、言語、感情、色知覚の関係に関する心理学的研究に根ざしている。
我々は、人間の感情の3次元モデルを構築した: 原子価(良い、いい、悪い、悪い、悪い)、覚醒(カルム、受動的、エキサイティング、アクティブ)、支配(弱、コントロールする、強い、コントロールする)。
これまで、感情の多次元モデルがテキストデータの可視化にはほとんど使われていなかった。
さらに、最近までほとんどのテキストビジュアライゼーションは高いレベルにとどまり、テキストの深いセマンティックコンテンツとの密接な関係を保った。
経験的研究により,3次元の感情空間の任意の点をユニークな色に変換するカラーマッピングを導入する。
エモザイクは3つの感情的パラメータにアノテートされた単語の感情的辞書を使用し、テキストから感情的意味を抽出し、色空間の色パラメータに割り当てる。
感情を色にマッピングするこのアプローチは、読者がテキストの感情的トーンをより簡単に把握できるようにすることを目的としている。
エモザイクのいくつかの特徴は、読者がテキストの感情的な内容をより詳細に、例えば、ヒストグラムとして集約された形で、テキストの順序に従って連続的に、そしてテキスト表示自体に詳細を埋め込むことができる。
テキストとビジュアライゼーションのフィルタリングとナビゲートを可能にするインタラクション技術が含まれている。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - Emotion and Sentiment Guided Paraphrasing [3.5027291542274366]
感情の勾配に沿ってきめ細かな感情的言い回しを新たに導入する。
入力テキストとターゲットテキストを微粒な感情ラベルで拡張することにより、広く使われているパラフレーズデータセットを再構築する。
本研究では,条件付きテキスト生成のための事前学習言語モデルを活用することで,感情と感情を導出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T20:59:40Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Uncovering the Limits of Text-based Emotion Detection [0.0]
感情分類のための最大のコーパスは、GoEmotions、読者によってラベル付けされた58Kメッセージ、Vent、ライターがラベル付けされた33Mメッセージである。
我々はベンチマークを設計し、BERT上に2つのシンプルな新しいモデルを含むいくつかの特徴空間と学習アルゴリズムを評価する。
論文 参考訳(メタデータ) (2021-09-04T16:40:06Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - EmoDNN: Understanding emotions from short texts through a deep neural
network ensemble [2.459874436804819]
本稿では,短い内容から潜伏した個々の側面を推定する枠組みを提案する。
また,テキストコンテキストから感情を抽出する動的ドロップアウト共振器を備えた新しいアンサンブル分類器を提案する。
提案モデルでは,ノイズのある内容から感情を認識する上で,高い性能を実現することができる。
論文 参考訳(メタデータ) (2021-06-03T09:17:34Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - PO-EMO: Conceptualization, Annotation, and Modeling of Aesthetic
Emotions in German and English Poetry [26.172030802168752]
我々は、詩の中の感情を、文章で表現されるものや著者が意図するものよりも、読者に誘惑されるものとして考える。
我々は,読者の審美的評価を予測可能な審美感情の集合を概念化し,各行に複数ラベルの注釈を付けることで,その文脈内での混合感情を捉えることができる。
論文 参考訳(メタデータ) (2020-03-17T13:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。