論文の概要: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- arxiv url: http://arxiv.org/abs/2512.07801v2
- Date: Tue, 09 Dec 2025 09:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:23.029646
- Title: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- Title(参考訳): 協調因果感覚形成:人間-AI意思決定支援における相補性ギャップの閉鎖
- Authors: Raunak Jain, Mudita Khurana,
- Abstract要約: 現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナーとしてではなく、回答エンジンとして訓練されている、と私たちは主張する。
我々は,この能力をゼロから開発するための研究課題として,協調因果センスメイキングを提案する。
これらの方向は、MASの研究を、彼らではなく、彼らの人間パートナーと共に考えるエージェントに進めることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based agents are increasingly deployed for expert decision support, yet human-AI teams in high-stakes settings do not yet reliably outperform the best individual. We argue this complementarity gap reflects a fundamental mismatch: current agents are trained as answer engines, not as partners in the collaborative sensemaking through which experts actually make decisions. Sensemaking (the ability to co-construct causal explanations, surface uncertainties, and adapt goals) is the key capability that current training pipelines do not explicitly develop or evaluate. We propose Collaborative Causal Sensemaking (CCS) as a research agenda to develop this capability from the ground up, spanning new training environments that reward collaborative thinking, representations for shared human-AI mental models, and evaluation centred on trust and complementarity. These directions can advance MAS research toward agents that think with their human partners rather than for them.
- Abstract(参考訳): LLMベースのエージェントは、専門家による意思決定のサポートのためにますますデプロイされているが、ハイテイクな設定のヒューマンAIチームは、最高の個人を確実に上回っているわけではない。
現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナとしてではなく、回答エンジンとして訓練されています。
センスメイキング(因果的説明、表面の不確実性、適応目標を共構築する能力)は、現在のトレーニングパイプラインが明示的に開発や評価を行わない重要な能力である。
我々は,協力的因果感覚形成(CCS)を基礎から開発するための研究課題として,協調的思考に報いる新たなトレーニング環境,共有された人間-AI精神モデルのための表現,信頼と相補性を中心とした評価などを提案する。
これらの方向は、MASの研究を、彼らではなく、彼らの人間パートナーと共に考えるエージェントに進めることができる。
関連論文リスト
- Completion $\neq$ Collaboration: Scaling Collaborative Effort with Agents [48.95020665909723]
タスク完了エージェントの構築と評価から,協調エージェントの開発への移行を議論する。
エージェントのユーティリティがユーザ関与の増加とともにどのように成長するかをキャプチャするフレームワークであるコラボレーティブ・ワーク・スケーリングを紹介します。
論文 参考訳(メタデータ) (2025-10-29T17:47:18Z) - Unraveling Human-AI Teaming: A Review and Outlook [2.3396455015352258]
人工知能(AI)は前例のないペースで進歩しており、意思決定と生産性を高める可能性がある。
しかし、人間とAIの協調的な意思決定プロセスはまだ未開発であり、しばしばその変革の可能性に欠ける。
本稿では,AIエージェントの受動的ツールから,複雑な環境下での学習,適応,自律的な運用能力を強調した,人間-AIチームの積極的な協力者への進化について考察する。
論文 参考訳(メタデータ) (2025-04-08T07:37:25Z) - When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming [13.263258837438045]
本研究では,人間とエージェントの協力関係を評価するための重要な指標として,建設的相互依存の概念を提案する。
その結果,訓練されたエージェントは高いタスク報酬を得られるが,協調行動の誘発には失敗していることがわかった。
分析の結果,チームリングのパフォーマンスは必ずしもタスク報酬と相関していないことが明らかとなり,タスク報酬だけでは協調を確実に測定できないことがわかった。
論文 参考訳(メタデータ) (2025-02-10T19:16:20Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [50.657070334404835]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。