論文の概要: PyPlutchik: visualising and comparing emotion-annotated corpora
- arxiv url: http://arxiv.org/abs/2105.04295v1
- Date: Mon, 19 Apr 2021 19:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 07:06:55.745787
- Title: PyPlutchik: visualising and comparing emotion-annotated corpora
- Title(参考訳): PyPlutchik:感情関連コーパスの可視化と比較
- Authors: Alfonso Semeraro, Salvatore Vilella and Giancarlo Ruffo
- Abstract要約: PyPlutchikはPlutchikの感情をテキストやコーパスで視覚化するために設計されたPythonライブラリである。
PyPlutchikを使えば、ユーザーはコンパクトで直感的に、プライマリ、セカンダリ、セカンダリ、第三、反対のダイアドを表示できる。
- 参考スコア(独自算出の注目度): 0.3093890460224435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing availability of textual corpora and data fetched from social
networks is fuelling a huge production of works based on the model proposed by
psychologist Robert Plutchik, often referred simply as the ``Plutchik Wheel''.
Related researches range from annotation tasks description to emotions
detection tools. Visualisation of such emotions is traditionally carried out
using the most popular layouts, as bar plots or tables, which are however
sub-optimal. The classic representation of the Plutchik's wheel follows the
principles of proximity and opposition between pairs of emotions: spatial
proximity in this model is also a semantic proximity, as adjacent emotions
elicit a complex emotion (a primary dyad) when triggered together; spatial
opposition is a semantic opposition as well, as positive emotions are opposite
to negative emotions. The most common layouts fail to preserve both features,
not to mention the need of visually allowing comparisons between different
corpora in a blink of an eye, that is hard with basic design solutions. We
introduce PyPlutchik, a Python library specifically designed for the
visualisation of Plutchik's emotions in texts or in corpora. PyPlutchik draws
the Plutchik's flower with each emotion petal sized after how much that emotion
is detected or annotated in the corpus, also representing three degrees of
intensity for each of them. Notably, PyPlutchik allows users to display also
primary, secondary, tertiary and opposite dyads in a compact, intuitive way. We
substantiate our claim that PyPlutchik outperforms other classic visualisations
when displaying Plutchik emotions and we showcase a few examples that display
our library's most compelling features.
- Abstract(参考訳): ソーシャルネットワークから抽出されたテキストコーパスとデータは、心理学者のロバート・プルチク(robert plutchik)が提唱した「plutchik wheel」と呼ばれるモデルに基づいて、膨大な量の著作物を生み出している。
関連する研究は、アノテーションタスクの記述から感情検出ツールまで幅広い。
このような感情の可視化は、伝統的にバープロットやテーブルなど、最も一般的なレイアウトを使用して行われる。
このモデルにおける空間的近接は意味的近接であり、隣接する感情が一緒に引き起こされたときに複雑な感情(一次ダイナド)を誘発するのと同様に、空間的対立は意味的反対であり、ポジティブな感情は否定的な感情とは反対である。
最も一般的なレイアウトは両方の機能を保存できず、視覚的に異なるコーパス間の比較を目線で許可する必要性は言うまでもなく、基本的な設計ソリューションでは難しい。
PyPlutchikはPlutchikの感情をテキストやコーパスで可視化するように設計されたPythonライブラリである。
ピプルツチクは、コーパスでどれだけの感情が検出または注釈付けされたかの後に、それぞれの感情の花弁でプルツチクの花を描き、それぞれに3度の強さを表す。
特にPyPlutchikでは、ユーザーはコンパクトで直感的に、プライマリ、セカンダリ、セカンダリ、第三、反対のダイアドを表示できる。
我々は、PyPlutchikがPlutchikの感情を表示するときに、他の古典的な視覚よりも優れているという主張を裏付ける。
関連論文リスト
- Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Emotional Theory of Mind: Bridging Fast Visual Processing with Slow Linguistic Reasoning [0.6749750044497732]
本研究では,感情認知に関連する「物語キャプション」を構築することで,感情的推論機能を組み込む手法を提案する。
ゼロショット分類器 (CLIP) と微調整型視覚言語モデル (LLaVA) を用いて, 人間の生成した記述子上でのキャプションを構築する2つの方法を提案する。
実験の結果,「最強」の物語記述子と言語モデルの「スロー」推論を組み合わせることは,心の感情理論を実現するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2023-10-30T20:26:12Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - PO-EMO: Conceptualization, Annotation, and Modeling of Aesthetic
Emotions in German and English Poetry [26.172030802168752]
我々は、詩の中の感情を、文章で表現されるものや著者が意図するものよりも、読者に誘惑されるものとして考える。
我々は,読者の審美的評価を予測可能な審美感情の集合を概念化し,各行に複数ラベルの注釈を付けることで,その文脈内での混合感情を捉えることができる。
論文 参考訳(メタデータ) (2020-03-17T13:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。