論文の概要: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- arxiv url: http://arxiv.org/abs/2512.07801v1
- Date: Mon, 08 Dec 2025 18:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:55.003491
- Title: Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support
- Title(参考訳): 協調因果感覚形成:人間-AI意思決定支援における相補性ギャップの閉鎖
- Authors: Raunak Jain, Mudita Khurana,
- Abstract要約: これは単なる正確性の問題ではなく、AI支援の考え方における根本的なギャップだ、と私たちは主張する。
我々は,意思決定支援エージェントのための研究課題と組織化の枠組みとして,協調因果センスメイキングを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based agents are rapidly being plugged into expert decision-support, yet in messy, high-stakes settings they rarely make the team smarter: human-AI teams often underperform the best individual, experts oscillate between verification loops and over-reliance, and the promised complementarity does not materialise. We argue this is not just a matter of accuracy, but a fundamental gap in how we conceive AI assistance: expert decisions are made through collaborative cognitive processes where mental models, goals, and constraints are continually co-constructed, tested, and revised between human and AI. We propose Collaborative Causal Sensemaking (CCS) as a research agenda and organizing framework for decision-support agents: systems designed as partners in cognitive work, maintaining evolving models of how particular experts reason, helping articulate and revise goals, co-constructing and stress-testing causal hypotheses, and learning from the outcomes of joint decisions so that both human and agent improve over time. We sketch challenges around training ecologies that make collaborative thinking instrumentally valuable, representations and interaction protocols for co-authored models, and evaluation centred on trust and complementarity. These directions can reframe MAS research around agents that participate in collaborative sensemaking and act as AI teammates that think with their human partners.
- Abstract(参考訳): LLMベースのエージェントは、専門家の意思決定支援に急速にプラグインされていますが、混乱した高レベルな設定では、チームがより賢くなることはめったにありません。
専門家による決定は、メンタルモデル、目標、制約が継続的に構築され、テストされ、人間とAIの間で修正される、協調的な認知プロセスを通じて行われる。
我々は,認知活動のパートナとして設計されたシステム,特定の専門家の理屈の進化モデルを維持すること,目標の明確化と修正の支援,共同構築とストレステストによる因果仮説の学習,共同決定の結果から人間とエージェントの両方が時間とともに改善するように,協調的因果感覚形成(CCS)を研究課題として提案する。
我々は、協調的思考を価値あるものにする教育生態学、共著者モデルのための表現と相互作用プロトコル、信頼と相補性を中心とした評価に関する課題をスケッチする。
これらの方向は、協調的なセンスメイキングに参加するエージェントに関するMAS研究を再編成し、人間のパートナーと考えるAIチームメイトとして振る舞うことができる。
関連論文リスト
- Completion $\neq$ Collaboration: Scaling Collaborative Effort with Agents [48.95020665909723]
タスク完了エージェントの構築と評価から,協調エージェントの開発への移行を議論する。
エージェントのユーティリティがユーザ関与の増加とともにどのように成長するかをキャプチャするフレームワークであるコラボレーティブ・ワーク・スケーリングを紹介します。
論文 参考訳(メタデータ) (2025-10-29T17:47:18Z) - Unraveling Human-AI Teaming: A Review and Outlook [2.3396455015352258]
人工知能(AI)は前例のないペースで進歩しており、意思決定と生産性を高める可能性がある。
しかし、人間とAIの協調的な意思決定プロセスはまだ未開発であり、しばしばその変革の可能性に欠ける。
本稿では,AIエージェントの受動的ツールから,複雑な環境下での学習,適応,自律的な運用能力を強調した,人間-AIチームの積極的な協力者への進化について考察する。
論文 参考訳(メタデータ) (2025-04-08T07:37:25Z) - When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming [13.263258837438045]
本研究では,人間とエージェントの協力関係を評価するための重要な指標として,建設的相互依存の概念を提案する。
その結果,訓練されたエージェントは高いタスク報酬を得られるが,協調行動の誘発には失敗していることがわかった。
分析の結果,チームリングのパフォーマンスは必ずしもタスク報酬と相関していないことが明らかとなり,タスク報酬だけでは協調を確実に測定できないことがわかった。
論文 参考訳(メタデータ) (2025-02-10T19:16:20Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [50.657070334404835]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。