論文の概要: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- arxiv url: http://arxiv.org/abs/2512.07801v3
- Date: Wed, 10 Dec 2025 14:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.21931
- Title: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- Title(参考訳): 協調因果感覚形成:人間-AI意思決定支援における相補性ギャップの閉鎖
- Authors: Raunak Jain, Mudita Khurana,
- Abstract要約: LLMベースのエージェントは、専門家による意思決定支援のためにますます多くデプロイされている。
しかし、ハイテイクな設定の人間-AIチームは、最高の個人を確実に上回っているわけではない。
現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナとしてではなく、回答エンジンとして訓練されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based agents are increasingly deployed for expert decision support, yet human-AI teams in high-stakes settings do not yet reliably outperform the best individual. We argue this complementarity gap reflects a fundamental mismatch: current agents are trained as answer engines, not as partners in the collaborative sensemaking through which experts actually make decisions. Sensemaking (the ability to co-construct causal explanations, surface uncertainties, and adapt goals) is the key capability that current training pipelines do not explicitly develop or evaluate. We propose Collaborative Causal Sensemaking (CCS) as a research agenda to develop this capability from the ground up, spanning new training environments that reward collaborative thinking, representations for shared human-AI mental models, and evaluation centred on trust and complementarity. Taken together, these directions shift MAS research from building oracle-like answer engines to cultivating AI teammates that co-reason with their human partners over the causal structure of shared decisions, advancing the design of effective human-AI teams.
- Abstract(参考訳): LLMベースのエージェントは、専門家による意思決定のサポートのためにますますデプロイされているが、ハイテイクな設定のヒューマンAIチームは、最高の個人を確実に上回っているわけではない。
現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナとしてではなく、回答エンジンとして訓練されています。
センスメイキング(因果的説明、表面の不確実性、適応目標を共構築する能力)は、現在のトレーニングパイプラインが明示的に開発や評価を行わない重要な能力である。
我々は,協力的因果感覚形成(CCS)を基礎から開発するための研究課題として,協調的思考に報いる新たなトレーニング環境,共有された人間-AI精神モデルのための表現,信頼と相補性を中心とした評価などを提案する。
これらの方向性は、MASの研究をオラクルのような回答エンジンの構築から、共有された意思決定の因果的構造に関して、人間のパートナーと共謀するAIチームメイトを育成し、効果的な人間とAIチームの設計を推し進めるようになる。
関連論文リスト
- Bridging the Socio-Emotional Gap: The Functional Dimension of Human-AI Collaboration for Software Engineering [5.627981468468872]
社会感情インテリジェンス(SEI)は、チームメイト間のコラボレーションを促進するが、人間とAIのコラボレーションにおけるその役割は未だ不明である。
現在のAIシステムは、人間がチームワークにもたらすSEI機能に欠けており、コラボレーションのダイナミクスの潜在的なギャップを生み出します。
本研究では,ソフトウェア実践者がHAICの社会的・感情的ギャップと,AIシステムが効果的なコラボレーションにどのような能力を必要とするかを明らかにする。
論文 参考訳(メタデータ) (2026-01-27T09:20:03Z) - Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Completion $\neq$ Collaboration: Scaling Collaborative Effort with Agents [48.95020665909723]
タスク完了エージェントの構築と評価から,協調エージェントの開発への移行を議論する。
エージェントのユーティリティがユーザ関与の増加とともにどのように成長するかをキャプチャするフレームワークであるコラボレーティブ・ワーク・スケーリングを紹介します。
論文 参考訳(メタデータ) (2025-10-29T17:47:18Z) - Agentic AI as Undercover Teammates: Argumentative Knowledge Construction in Hybrid Human-AI Collaborative Learning [6.109253207492508]
生成人工知能(AI)エージェントは、協調学習環境にますます組み込まれている。
本研究では,協調推論のダイナミクスを形作るエージェントAIについて検討した。
論文 参考訳(メタデータ) (2025-10-19T14:26:15Z) - Beyond Brainstorming: What Drives High-Quality Scientific Ideas? Lessons from Multi-Agent Collaboration [59.41889496960302]
本稿では,構造化マルチエージェントの議論が独創的思考を超えうるかどうかを考察する。
研究提案を作成するための協調型マルチエージェントフレームワークを提案する。
エージェントベースのスコアリングと,新規性,戦略的ビジョン,統合深度といった領域にわたるヒューマンレビューを備えた包括的プロトコルを採用している。
論文 参考訳(メタデータ) (2025-08-06T15:59:18Z) - Unraveling Human-AI Teaming: A Review and Outlook [2.3396455015352258]
人工知能(AI)は前例のないペースで進歩しており、意思決定と生産性を高める可能性がある。
しかし、人間とAIの協調的な意思決定プロセスはまだ未開発であり、しばしばその変革の可能性に欠ける。
本稿では,AIエージェントの受動的ツールから,複雑な環境下での学習,適応,自律的な運用能力を強調した,人間-AIチームの積極的な協力者への進化について考察する。
論文 参考訳(メタデータ) (2025-04-08T07:37:25Z) - When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Human-AI Collaboration: Trade-offs Between Performance and Preferences [6.521033978692547]
人間の行動に配慮したエージェントは、純粋にパフォーマンスを最大化するエージェントよりも好まれることを示す。
我々は、不平等-逆転効果が人間の選択の原動力であることの証拠を見つけ、人々がチームへの有意義な貢献を可能にする協力的なエージェントを好むことを示唆している。
論文 参考訳(メタデータ) (2025-02-28T23:50:14Z) - Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming [13.263258837438045]
本研究では,人間とエージェントの協力関係を評価するための重要な指標として,建設的相互依存の概念を提案する。
その結果,訓練されたエージェントは高いタスク報酬を得られるが,協調行動の誘発には失敗していることがわかった。
分析の結果,チームリングのパフォーマンスは必ずしもタスク報酬と相関していないことが明らかとなり,タスク報酬だけでは協調を確実に測定できないことがわかった。
論文 参考訳(メタデータ) (2025-02-10T19:16:20Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [50.657070334404835]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Confounding-Robust Policy Improvement with Human-AI Teams [8.315707564931465]
我々は,人間とAIのコラボレーションにおいて,観測不能なコンバウンディングに対処する新しいソリューションを提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデリングを組み合わせることで、潜在的に隠れた共同設立者を説明する。
論文 参考訳(メタデータ) (2023-10-13T02:39:52Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。