論文の概要: Learning Complementary Policies for Human-AI Teams
- arxiv url: http://arxiv.org/abs/2302.02944v1
- Date: Mon, 6 Feb 2023 17:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 15:54:42.233261
- Title: Learning Complementary Policies for Human-AI Teams
- Title(参考訳): 人間-AIチームのための補完的政策の学習
- Authors: Ruijiang Gao, Maytal Saar-Tsechansky, Maria De-Arteaga, Ligong Han,
Wei Sun, Min Kyung Lee, Matthew Lease
- Abstract要約: 本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
- 参考スコア(独自算出の注目度): 22.13683008398939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-AI complementarity is important when neither the algorithm nor the
human yields dominant performance across all instances in a given context.
Recent work that explored human-AI collaboration has considered decisions that
correspond to classification tasks. However, in many important contexts where
humans can benefit from AI complementarity, humans undertake course of action.
In this paper, we propose a framework for a novel human-AI collaboration for
selecting advantageous course of action, which we refer to as Learning
Complementary Policy for Human-AI teams (\textsc{lcp-hai}). Our solution aims
to exploit the human-AI complementarity to maximize decision rewards by
learning both an algorithmic policy that aims to complement humans by a routing
model that defers decisions to either a human or the AI to leverage the
resulting complementarity. We then extend our approach to leverage
opportunities and mitigate risks that arise in important contexts in practice:
1) when a team is composed of multiple humans with differential and potentially
complementary abilities, 2) when the observational data includes consistent
deterministic actions, and 3) when the covariate distribution of future
decisions differ from that in the historical data. We demonstrate the
effectiveness of our proposed methods using data on real human responses and
semi-synthetic, and find that our methods offer reliable and advantageous
performance across setting, and that it is superior to when either the
algorithm or the AI make decisions on their own. We also find that the
extensions we propose effectively improve the robustness of the human-AI
collaboration performance in the presence of different challenging settings.
- Abstract(参考訳): 人間とAIの相補性は、アルゴリズムも人間も、与えられたコンテキストにおけるすべてのインスタンスで支配的なパフォーマンスを得られない場合に重要である。
近年、人間とAIのコラボレーションを探求する研究は、分類タスクに対応する決定を考察している。
しかし、人間がaiの相補性から利益を得る多くの重要な文脈において、人間は行動の方針を取る。
本稿では,人間-AIチームのための学習補完政策(\textsc{lcp-hai})と呼ぶ,有利な行動選択のための新しい人間-AI協調のための枠組みを提案する。
我々のソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としており、人間の相補性を活用するための決定を人間またはAIに委ねるルーティングモデルにより、人間の相補性を目指すアルゴリズムポリシーの両方を学ぶ。
そして、機会を活用し、実践上の重要な文脈で発生するリスクを軽減するためのアプローチを拡張します。
1) チームが、相補的な能力を持つ複数の人間で構成されている場合。
2 観測データが一貫した決定的行動を含むときは、
3) 過去のデータと将来の意思決定の共変量分布が異なる場合。
提案手法の有効性を実人の反応と半合成に基づくデータを用いて実証し,提案手法が設定にまたがる信頼性と有利な性能を提供し,アルゴリズムやAIが独自に意思決定を行う場合よりも優れていることを示す。
また,提案する拡張は,異なる困難な状況下での人間とAIのコラボレーション性能の堅牢性の向上にも有効であることがわかった。
関連論文リスト
- Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning [12.27907858317828]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - On the Effect of Contextual Information on Human Delegation Behavior in
Human-AI collaboration [3.9253315480927964]
我々は、AIにインスタンスを委譲するために、人間の意思決定に文脈情報を提供することの効果について検討する。
参加者にコンテキスト情報を提供することで,人間-AIチームのパフォーマンスが大幅に向上することがわかった。
本研究は,人間代表団における人間とAIの相互作用の理解を深め,より効果的な協調システムを設計するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2024-01-09T18:59:47Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Blessing from Human-AI Interaction: Super Reinforcement Learning in
Confounded Environments [19.944163846660498]
本稿では,データ駆動シーケンシャル意思決定に人間-AIインタラクションを活用する超強化学習のパラダイムを紹介する。
未測定のコンファウンディングを伴う意思決定プロセスでは、過去のエージェントによって取られたアクションは、未開示の情報に対する貴重な洞察を提供することができる。
我々は、いくつかの超政治学習アルゴリズムを開発し、その理論的性質を体系的に研究する。
論文 参考訳(メタデータ) (2022-09-29T16:03:07Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。