論文の概要: HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence
- arxiv url: http://arxiv.org/abs/2206.07593v1
- Date: Wed, 15 Jun 2022 15:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 20:34:06.750127
- Title: HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence
- Title(参考訳): HICEM: 人工感情知のための高次感情モデル
- Authors: Benjamin Wortman and James Z. Wang
- Abstract要約: 次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
- 参考スコア(独自算出の注目度): 9.153146173929935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As social robots and other intelligent machines enter the home, artificial
emotional intelligence (AEI) is taking center stage to address users' desire
for deeper, more meaningful human-machine interaction. To accomplish such
efficacious interaction, the next-generation AEI need comprehensive human
emotion models for training. Unlike theory of emotion, which has been the
historical focus in psychology, emotion models are a descriptive tools. In
practice, the strongest models need robust coverage, which means defining the
smallest core set of emotions from which all others can be derived. To achieve
the desired coverage, we turn to word embeddings from natural language
processing. Using unsupervised clustering techniques, our experiments show that
with as few as 15 discrete emotion categories, we can provide maximum coverage
across six major languages--Arabic, Chinese, English, French, Spanish, and
Russian. In support of our findings, we also examine annotations from two
large-scale emotion recognition datasets to assess the validity of existing
emotion models compared to human perception at scale. Because robust,
comprehensive emotion models are foundational for developing real-world
affective computing applications, this work has broad implications in social
robotics, human-machine interaction, mental healthcare, and computational
psychology.
- Abstract(参考訳): 社会ロボットや他の知的な機械が家庭に入るにつれ、AI(Artificial emotional Intelligence, AEI)は、より深く、より有意義な人間と機械の相互作用を求めるユーザの欲求に対処するために、中心的なステージを踏み出している。
このような効果的な相互作用を達成するために、次世代のAEIは訓練に包括的な人間の感情モデルを必要とする。
心理学の歴史的焦点であった感情理論とは異なり、感情モデルは記述的道具である。
実際には、最強のモデルは堅牢なカバレッジを必要とする。つまり、他のすべての感情を導出できる最小のコアセットを定義することを意味する。
所望のカバレッジを達成するため、自然言語処理からの単語埋め込みに目を向ける。
我々の実験では、教師なしクラスタリング技術を用いて、最大15の個別感情カテゴリーで、アラビア語、中国語、英語、フランス語、スペイン語、ロシア語の6つの主要言語をカバーできることを示した。
また、既存の感情モデルの妥当性を評価するために、2つの大規模感情認識データセットからの注釈も検討した。
堅牢で包括的な感情モデルが現実の感情的コンピューティングアプリケーションを開発するための基礎となるため、この研究は社会ロボティクス、人間と機械の相互作用、メンタルヘルス、計算心理学に幅広い影響を及ぼす。
関連論文リスト
- CAPE: A Chinese Dataset for Appraisal-based Emotional Generation using Large Language Models [30.40159858361768]
認知評価理論に基づく感情コーパスという中国のデータセットであるCAPEを作成するための2段階の自動データ生成フレームワークを提案する。
このコーパスは、多様な個人的・状況的要因を考慮し、文脈的に適切な感情的反応を伴う対話を生成する。
我々の研究は、会話エージェントにおける感情表現を前進させる可能性を示し、よりニュアンスで有意義な人間とコンピュータの相互作用の道を開いた。
論文 参考訳(メタデータ) (2024-10-18T03:33:18Z) - Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Modeling emotion for human-like behavior in future intelligent robots [0.913755431537592]
我々は、神経科学が芸術の現在の状態をいかに前進させるかを示す。
ロボットモデルにおける感情関連プロセスのより強力な統合は、人間のような行動の設計に不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2020-09-30T17:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。