論文の概要: Confounding-Robust Policy Improvement with Human-AI Teams
- arxiv url: http://arxiv.org/abs/2310.08824v1
- Date: Fri, 13 Oct 2023 02:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:44:25.053104
- Title: Confounding-Robust Policy Improvement with Human-AI Teams
- Title(参考訳): ヒューマンaiチームによるロバスト政策の改善
- Authors: Ruijiang Gao, Mingzhang Yin
- Abstract要約: 限界感度モデル(MSM)を用いて,人間とAIの協調作業における非観測的コンバウンディングに対処する新しい手法を提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデルを組み合わせることで、他の方法では隠される可能性がある共同ファウンダーの可能性を考慮しています。
- 参考スコア(独自算出の注目度): 9.823906892919746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-AI collaboration has the potential to transform various domains by
leveraging the complementary strengths of human experts and Artificial
Intelligence (AI) systems. However, unobserved confounding can undermine the
effectiveness of this collaboration, leading to biased and unreliable outcomes.
In this paper, we propose a novel solution to address unobserved confounding in
human-AI collaboration by employing the marginal sensitivity model (MSM). Our
approach combines domain expertise with AI-driven statistical modeling to
account for potential confounders that may otherwise remain hidden. We present
a deferral collaboration framework for incorporating the MSM into policy
learning from observational data, enabling the system to control for the
influence of unobserved confounding factors. In addition, we propose a
personalized deferral collaboration system to leverage the diverse expertise of
different human decision-makers. By adjusting for potential biases, our
proposed solution enhances the robustness and reliability of collaborative
outcomes. The empirical and theoretical analyses demonstrate the efficacy of
our approach in mitigating unobserved confounding and improving the overall
performance of human-AI collaborations.
- Abstract(参考訳): 人間とAIのコラボレーションは、人間のエキスパートと人工知能(AI)システムの補完的な強みを活用することで、さまざまなドメインを変革する可能性がある。
しかし、観測されていないコンファウンディングは、このコラボレーションの有効性を損なう可能性がある。
本稿では, 限界感度モデル(MSM)を用いて, 人間とAIの協調作業における非観測的共起に対処する新しい手法を提案する。
私たちのアプローチは、ドメインの専門知識とai駆動の統計モデリングを組み合わせることで、隠れている可能性のある共同創設者を考慮します。
本稿では,MSMを観測データからポリシー学習に組み込むための遅延協調フレームワークを提案する。
さらに,異なる意思決定者の多様な専門知識を活用するために,個人化された推論協調システムを提案する。
潜在的なバイアスの調整により,提案手法は協調結果のロバスト性と信頼性を高める。
実証的および理論的分析は, 人類とAIの協力関係を緩和し, 全体的な業績を向上させるためのアプローチの有効性を示した。
関連論文リスト
- Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Evaluating Human-AI Collaboration: A Review and Methodological Framework [4.41358655687435]
人間-AIコラボレーション(Human-AI Collaboration、HAIC)として知られる個人との作業環境における人工知能(AI)の利用が不可欠である。
HAICの有効性を評価することは、関連するコンポーネントの複雑な相互作用のため、依然として困難である。
本稿では,既存のHAIC評価手法を詳細に分析し,これらのシステムをより効果的に評価するための新しいパラダイムを開発する。
論文 参考訳(メタデータ) (2024-07-09T12:52:22Z) - Cognitive Insights and Stable Coalition Matching for Fostering Multi-Agent Cooperation [6.536780912510439]
本稿では,ToMレベルの異なるエージェントの強度を利用する新しい連立機構を提案する。
我々の研究は、ToMを活用して、より高度で人間らしいコーディネーション戦略を構築する可能性を実証しています。
論文 参考訳(メタデータ) (2024-05-28T10:59:33Z) - Complementarity in Human-AI Collaboration: Concept, Sources, and Evidence [6.571063542099526]
我々は相補性の概念を開発し、その理論的ポテンシャルを定式化する。
情報と能力の非対称性を相補性の2つの主要な源とみなす。
我々の研究は、意思決定における人間とAIの相補性の包括的な理論的基盤を提供する。
論文 参考訳(メタデータ) (2024-03-21T07:27:17Z) - A Survey on Human-AI Teaming with Large Pre-Trained Models [7.280953657497549]
HAIチーム(Human-AI Teaming)は、問題解決と意思決定のプロセスを進めるための基盤として登場した。
大規模事前訓練モデル(LPtM)の出現は、この景観を大きく変えた。
複雑なパターンを理解し予測するために大量のデータを活用することで、前例のない機能を提供します。
論文 参考訳(メタデータ) (2024-03-07T22:37:49Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。