論文の概要: Enhancing Collective Intelligence in Large Language Models Through Emotional Integration
- arxiv url: http://arxiv.org/abs/2503.04849v1
- Date: Wed, 05 Mar 2025 23:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 19:13:14.726485
- Title: Enhancing Collective Intelligence in Large Language Models Through Emotional Integration
- Title(参考訳): 感情統合による大規模言語モデルにおける集合知の強化
- Authors: Likith Kadiyala, Ramteja Sajja, Yusuf Sermet, Ibrahim Demir,
- Abstract要約: 本研究では,大規模言語モデル (LLM) への感情的多様性の統合を,集団知能を高めるために検討する。
群衆現象の人間の知恵に触発され、GoogleのGoEmotionsデータセットとローランド適応(LoRA)を用いてDarkIdol-Llama-3.1-8Bモデルを微調整し、感情的に多様な応答をシミュレートした。
- 参考スコア(独自算出の注目度): 0.2812395851874055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research investigates the integration of emotional diversity into Large Language Models (LLMs) to enhance collective intelligence. Inspired by the human wisdom of crowds phenomenon, where group decisions often outperform individual judgments, we fine-tuned the DarkIdol-Llama-3.1-8B model using Google's GoEmotions dataset and Low-Rank Adaptation (LoRA) to simulate emotionally diverse responses. Evaluating the model on a distance estimation task between Fargo, ND, and Seattle, WA, across 15,064 unique persona configurations, we analyzed how emotional states and social attributes influence decision-making. Our findings demonstrate that emotional integration shapes response patterns while maintaining acceptable prediction accuracy, revealing its potential to enhance artificial collective intelligence. This study provides valuable insights into the interplay of emotional diversity and decision-making in LLMs, suggesting pathways for creating emotionally aware AI systems that balance emotional depth with analytical precision.
- Abstract(参考訳): 本研究では,大規模言語モデル (LLM) への感情的多様性の統合を,集団知能を高めるために検討する。
GoogleのGoEmotionsデータセットとLow-Rank Adaptation (LoRA)を使ってDarkIdol-Llama-3.1-8Bモデルを微調整し、感情的に多様な応答をシミュレートした。
本研究では,Fargo, ND, およびSeattle, WA間の距離推定課題における,15,064の個人的構成から,感情状態と社会的属性が意思決定にどのような影響を及ぼすかを分析した。
本研究は,感情統合が予測精度を維持しつつ応答パターンを形作っていることを示し,人工知能の強化の可能性を明らかにした。
この研究は、LLMにおける感情の多様性と意思決定の相互作用に関する貴重な洞察を与え、感情の深さと分析的精度のバランスをとる感情を意識するAIシステムを構築するための経路を提案する。
関連論文リスト
- AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - Modelling Emotions in Face-to-Face Setting: The Interplay of Eye-Tracking, Personality, and Temporal Dynamics [1.4645774851707578]
本研究では、視線追跡データ、時間的ダイナミクス、性格特性を統合することで、知覚と知覚の両方の感情の検出を大幅に向上させる方法について述べる。
本研究は,将来の情緒コンピューティングと人間エージェントシステムの設計を示唆するものである。
論文 参考訳(メタデータ) (2025-03-18T13:15:32Z) - "Only ChatGPT gets me": An Empirical Analysis of GPT versus other Large Language Models for Emotion Detection in Text [2.6012482282204004]
本研究では,大規模言語モデル(LLM)のテキストによる人間の感情の検出と理解能力について検討する。
GoEmotionsデータセットの最先端モデルとの比較を含む方法論を用いて,感情分析システムとしてのLLMの有効性を評価することを目的とする。
論文 参考訳(メタデータ) (2025-03-05T09:47:49Z) - Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses [4.369058206183195]
本研究では,大規模言語モデル(LLM)に基づくAIシステムにおいて,AI生成したテキストの特徴が人間に主観意識を知覚させるかどうかを定量的に検討する。
回帰分析とクラスタリング分析を用いて,これらの特徴がAI意識に対する参加者の認識にどのように影響するかを検討した。
論文 参考訳(メタデータ) (2025-02-21T10:27:28Z) - MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。