論文の概要: When LLMs Team Up: The Emergence of Collaborative Affective Computing
- arxiv url: http://arxiv.org/abs/2506.01698v1
- Date: Mon, 02 Jun 2025 14:00:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.478727
- Title: When LLMs Team Up: The Emergence of Collaborative Affective Computing
- Title(参考訳): LLMsがチームを立ち上げる - コラボレーションによる影響コンピューティングの創発
- Authors: Wenna Lai, Haoran Xie, Guandong Xu, Qing Li, S. Joe Qin,
- Abstract要約: 本調査は, Affective Computing (AC) におけるLarge Language Models (LLMs) ベースのコラボレーションシステムの概要を概観することを目的とする。
LLMは、感情的な理解と生成タスクに対する統一的なアプローチを提供し、動的でリアルタイムな相互作用の可能性を高める。
この研究は、ACのLLMと協調的なインテリジェンスを体系的に探求する最初のものであり、人間のようなソーシャルインテリジェンスにアプローチするより強力なアプリケーションへの道を開いた。
- 参考スコア(独自算出の注目度): 17.777196145195866
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Affective Computing (AC) is essential in bridging the gap between human emotional experiences and machine understanding. Traditionally, AC tasks in natural language processing (NLP) have been approached through pipeline architectures, which often suffer from structure rigidity that leads to inefficiencies and limited adaptability. The advent of Large Language Models (LLMs) has revolutionized this field by offering a unified approach to affective understanding and generation tasks, enhancing the potential for dynamic, real-time interactions. However, LLMs face cognitive limitations in affective reasoning, such as misinterpreting cultural nuances or contextual emotions, and hallucination problems in decision-making. To address these challenges, recent research advocates for LLM-based collaboration systems that emphasize interactions among specialized models and LLMs, mimicking human-like affective intelligence through the synergy of emotional and rational thinking that aligns with Dual Process Theory in psychology. This survey aims to provide a comprehensive overview of LLM-based collaboration systems in AC, exploring from structured collaborations to autonomous collaborations. Specifically, it includes: (1) A systematic review of existing methods, focusing on collaboration strategies, mechanisms, key functions, and applications; (2) Experimental comparisons of collaboration strategies across representative tasks in affective understanding and generation; (3) An analysis highlighting the potential of these systems to enhance robustness and adaptability in complex affective reasoning; (4) A discussion of key challenges and future research directions to further advance the field. This work is the first to systematically explore collaborative intelligence with LLMs in AC, paving the way for more powerful applications that approach human-like social intelligence.
- Abstract(参考訳): Affective Computing(AC)は、人間の感情経験とマシン理解のギャップを埋めるのに不可欠である。
伝統的に、自然言語処理(NLP)におけるACタスクはパイプラインアーキテクチャを通してアプローチされてきた。
大規模言語モデル(LLM)の出現は、感情的な理解と生成タスクに対する統一的なアプローチを提供することによってこの分野に革命をもたらした。
しかし、LLMは文化的ニュアンスや文脈的感情の誤解釈、意思決定における幻覚問題など、感情的推論における認知的制限に直面している。
これらの課題に対処するため、最近の研究は、心理学におけるデュアルプロセス理論と整合する感情的・合理的思考の相乗効果を通じて、人間のような感情的知性を模倣し、特殊モデルとLLM間の相互作用を強調するLLMベースの協調システムについて提唱している。
この調査は、構造化されたコラボレーションから自律的なコラボレーションまで、ACにおけるLLMベースのコラボレーションシステムの総合的な概要を提供することを目的としている。
具体的には,(1)協調戦略,メカニズム,鍵機能,アプリケーションに着目した既存手法の体系的レビュー,(2)情緒的理解・生成における代表的タスク間の協調戦略の実験的比較,(3)複雑な情緒的推論における堅牢性と適応性を高めるためのシステムの可能性を強調する分析,(4)重要な課題と今後の研究の方向性について考察する。
この研究は、ACのLLMと協調的なインテリジェンスを体系的に探求する最初のものであり、人間のようなソーシャルインテリジェンスにアプローチするより強力なアプリケーションへの道を開いた。
関連論文リスト
- A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - From Consumption to Collaboration: Measuring Interaction Patterns to Augment Human Cognition in Open-Ended Tasks [2.048226951354646]
ジェネレーティブAIの台頭、特に大規模言語モデル(LLM)は、知識労働における認知過程を根本的に変えるものである。
本稿では、認知活動モード(探索対搾取)と認知エンゲージメントモード(建設対有害)の2つの側面に沿って相互作用パターンを分析する枠組みを提案する。
論文 参考訳(メタデータ) (2025-04-03T17:20:36Z) - Word Synchronization Challenge: A Benchmark for Word Association Responses for LLMs [4.352318127577628]
本稿では,人-コンピュータインタラクション(HCI)における大規模言語モデル(LLM)を評価するための新しいベンチマークであるWord Synchronization Challengeを紹介する。
このベンチマークでは、動的ゲームライクなフレームワークを使用して、単語アソシエーションを通じて人間の認知プロセスを模倣するLLMの能力をテストする。
論文 参考訳(メタデータ) (2025-02-12T11:30:28Z) - CogniDual Framework: Self-Training Large Language Models within a Dual-System Theoretical Framework for Improving Cognitive Tasks [39.43278448546028]
カーネマンの二重系理論は人間の意思決定過程を解明し、素早い直感的なシステム1と合理的なシステム2を区別する。
近年の大きな言語モデル (LLMs) は、認知タスクにおける人間レベルの習熟度に近づきやすいツールとして位置づけられている。
本研究では、自己学習を通じて、意図的な推論から直感的な応答へと進化するLLM(textbfCognidual Framework for LLMs, CFLLMs)について述べる。
論文 参考訳(メタデータ) (2024-09-05T09:33:24Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。