論文の概要: MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2505.18943v1
- Date: Sun, 25 May 2025 02:32:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.767727
- Title: MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems
- Title(参考訳): MetaMind:メタ認知型マルチエージェントシステムによる人間の社会的思考のモデル化
- Authors: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li,
- Abstract要約: メタ認知の心理学理論に触発されたマルチエージェントフレームワークであるMetaMindを紹介する。
我々のフレームワークは3つの挑戦的なベンチマークで最先端のパフォーマンスを実現し、実世界の社会的シナリオは35.7%改善した。
この研究は、共感的対話や文化的に敏感な相互作用に応用して、人間のような社会知性に向けてAIシステムを前進させる。
- 参考スコア(独自算出の注目度): 20.58639538648743
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.
- Abstract(参考訳): 人間の社会的相互作用は、心の理論(ToM)の心理学的概念に基づく認知的スキルである、他人の無意味な意図、感情、信念を推測する能力に依存する。
大きな言語モデル(LLM)は意味理解タスクに優れるが、人間のコミュニケーションに固有のあいまいさと文脈ニュアンスに苦しむ。
このギャップを埋めるために,メタ認知の心理学理論に触発されたマルチエージェントフレームワークであるMetaMindを紹介した。
メタミンドは,(1)仮説・オブ・ミンドエージェントがユーザの精神状態(例えば,意図・感情)を仮説化し,(2)ドメインエージェントがこれらの仮説を文化的規範と倫理的制約を用いて洗練し,(3)応答エージェントが文脈的に適切な応答を生成し,推測意図との整合性を検証した。
我々のフレームワークは3つの挑戦的なベンチマークで最先端のパフォーマンスを実現し、現実世界の社会的シナリオは35.7%改善し、ToM推論は6.2%向上した。
特に、LLMが鍵となるToMタスク上での人間レベルのパフォーマンスを初めてマッチングすることを可能にする。
アブレーション研究は、文脈的妥当性、社会的適切性、ユーザ適応のバランスをとるフレームワークの能力を示す全てのコンポーネントの必要性を裏付けるものである。
この研究は、共感的対話や文化的に敏感な相互作用に応用して、人間のような社会知性に向けてAIシステムを前進させる。
コードはhttps://github.com/XMZhangAI/MetaMind.comで入手できる。
関連論文リスト
- Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - PersuasiveToM: A Benchmark for Evaluating Machine Theory of Mind in Persuasive Dialogues [27.231701486961917]
本稿では,大規模言語モデルのマインド能力理論を評価するためのベンチマークであるPersuasiveToMを提案する。
フレームワークには、ToM ReasoningとToM Applicationという2つのコアタスクが含まれています。
PersuasiveToMの目的は、複雑な心理的活動に焦点を当てたLSMのToM推論能力を効果的に評価することである。
論文 参考訳(メタデータ) (2025-02-28T13:04:04Z) - AgentSense: Benchmarking Social Intelligence of Language Agents through Interactive Scenarios [38.878966229688054]
本稿では,対話型シナリオを通して言語エージェントのソーシャルインテリジェンスをベンチマークするAgensSenseを紹介する。
ドラマティック理論に基づいて、エージェントセンスは、広範なスクリプトから構築された1,225の多様な社会的シナリオを作成するためにボトムアップアプローチを採用している。
我々はERG理論を用いて目標を分析し、包括的な実験を行う。
以上の結果から,LPMは複雑な社会シナリオ,特に高レベルの成長ニーズにおいて,目標達成に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-25T07:04:16Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Social Neuro AI: Social Interaction as the "dark matter" of AI [0.0]
我々は、社会心理学と社会神経科学の実証結果と力学の枠組みが、よりインテリジェントな人工エージェントの開発にインスピレーションを与えることができると主張している。
論文 参考訳(メタデータ) (2021-12-31T13:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。