論文の概要: AI shares emotion with humans across languages and cultures
- arxiv url: http://arxiv.org/abs/2506.13978v1
- Date: Wed, 11 Jun 2025 14:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.236746
- Title: AI shares emotion with humans across languages and cultures
- Title(参考訳): AIは言語と文化にまたがって人間と感情を共有する
- Authors: Xiuwen Wu, Hao Wang, Zhiang Yan, Xiaohan Tang, Pengfei Xu, Wai-Ting Siok, Ping Li, Jia-Hong Gao, Bingjiang Lyu, Lang Qin,
- Abstract要約: 言語文化グループとモデル家族間の人間とAIの感情的アライメントを評価する。
分析の結果,LLM由来の感情空間は人間の知覚と構造的に一致していることがわかった。
モデル表現は、異なる感情カテゴリーにまたがって安定かつ自然に調節可能であることを示す。
- 参考スコア(独自算出の注目度): 12.530921452568291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective and safe human-machine collaboration requires the regulated and meaningful exchange of emotions between humans and artificial intelligence (AI). Current AI systems based on large language models (LLMs) can provide feedback that makes people feel heard. Yet it remains unclear whether LLMs represent emotion in language as humans do, or whether and how the emotional tone of their output can be controlled. We assess human-AI emotional alignment across linguistic-cultural groups and model-families, using interpretable LLM features translated from concept-sets for over twenty nuanced emotion categories (including six basic emotions). Our analyses reveal that LLM-derived emotion spaces are structurally congruent with human perception, underpinned by the fundamental affective dimensions of valence and arousal. Furthermore, these emotion-related features also accurately predict large-scale behavioural data on word ratings along these two core dimensions, reflecting both universal and language-specific patterns. Finally, by leveraging steering vectors derived solely from human-centric emotion concepts, we show that model expressions can be stably and naturally modulated across distinct emotion categories, which provides causal evidence that human emotion concepts can be used to systematically induce LLMs to produce corresponding affective states when conveying content. These findings suggest AI not only shares emotional representations with humans but its affective outputs can be precisely guided using psychologically grounded emotion concepts.
- Abstract(参考訳): 効果的で安全な人間と機械のコラボレーションには、人間と人工知能(AI)の間の感情の規制と意味のある交換が必要である。
大規模言語モデル(LLM)に基づく現在のAIシステムは、人々が耳を傾けるようなフィードバックを提供することができる。
しかし、LLMが人間の言語における感情を表現するのか、あるいはそのアウトプットの感情のトーンを制御できるのかは、まだ不明である。
言語文化グループとモデル家族間の人間とAIの感情的アライメントを,概念セットから翻訳された解釈可能なLLM特徴を用いて評価した。
分析の結果,LLM由来の感情空間は人間の知覚と構造的に一致していることが判明した。
さらに、これらの感情に関連した特徴は、これらの2つの中核次元に沿った単語評価に関する大規模行動データを正確に予測し、普遍的パターンと言語固有のパターンの両方を反映する。
最後に、人間中心の感情概念からのみ派生したステアリングベクトルを活用することにより、人間の感情概念を体系的に誘導し、コンテンツ伝達時に対応する感情状態を生成するための因果的証拠として、モデル表現が異なる感情カテゴリに対して安定かつ自然に調節可能であることを示す。
これらの結果は、AIが人間と感情表現を共有するだけでなく、感情的なアウトプットを心理的に基礎付けられた感情概念を用いて正確にガイドすることができることを示唆している。
関連論文リスト
- Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes [0.09208007322096533]
現状のマルチモーダルシステムは、標準化された画像に対して人間の感情評価をエミュレートできるかどうかを検討する。
AIの判断は、平均的な人間の評価と驚くほどよく相関している。
論文 参考訳(メタデータ) (2025-03-24T15:41:23Z) - MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Language-Specific Representation of Emotion-Concept Knowledge Causally
Supports Emotion Inference [44.126681295827794]
この研究は、大規模言語モデル(LLMs)として知られる人工知能の形式を用いて、言語に基づく感情の表現が、新しい状況の感情的意味に関する推論を生成するAIの能力に因果的に寄与するかどうかを評価する。
本研究は,LLMでも知覚モダ表現の欠如による感情の学習が可能であり,言語由来の感情概念知識の感情推論への寄与を強調した。
論文 参考訳(メタデータ) (2023-02-19T14:21:33Z) - HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence [9.153146173929935]
次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-15T15:21:30Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。