論文の概要: Human-AI Collaboration in Decision-Making: Beyond Learning to Defer
- arxiv url: http://arxiv.org/abs/2206.13202v1
- Date: Mon, 27 Jun 2022 11:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 14:25:05.049979
- Title: Human-AI Collaboration in Decision-Making: Beyond Learning to Defer
- Title(参考訳): 意思決定における人間とAIのコラボレーション
- Authors: Diogo Leit\~ao, Pedro Saleiro, M\'ario A.T. Figueiredo, Pedro Bizarro
- Abstract要約: 意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
- 参考スコア(独自算出の注目度): 4.874780144224057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-AI collaboration (HAIC) in decision-making aims to create synergistic
teaming between human decision-makers and AI systems. Learning to Defer (L2D)
has been presented as a promising framework to determine who among humans and
AI should take which decisions in order to optimize the performance and
fairness of the combined system. Nevertheless, L2D entails several often
unfeasible requirements, such as the availability of predictions from humans
for every instance or ground-truth labels independent from said
decision-makers. Furthermore, neither L2D nor alternative approaches tackle
fundamental issues of deploying HAIC in real-world settings, such as capacity
management or dealing with dynamic environments. In this paper, we aim to
identify and review these and other limitations, pointing to where
opportunities for future research in HAIC may lie.
- Abstract(参考訳): 意思決定におけるヒューマンAIコラボレーション(HAIC)は、人間の意思決定者とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらがどの決定を下すべきかを判断し、システムの性能と公平性を最適化する、有望なフレームワークとして提示されている。
それでもL2Dには、すべてのケースで人間が予測できることや、意思決定者から独立した地道なラベルなど、しばしば実現不可能な要件がいくつか含まれている。
さらに、L2Dや代替アプローチは、キャパシティ管理や動的環境の処理など、現実の環境でHAICをデプロイするという根本的な問題に対処するものではない。
本稿では,haicにおける今後の研究の機会がどこにあるかを示し,これらその他の制約を特定し,検討することを目的とする。
関連論文リスト
- Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning [12.27907858317828]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - A Statistical Framework for Measuring AI Reliance [25.512324767606547]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では、統計的決定理論に基づく信頼の形式的定義を提案し、AIの予測に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams [19.91751748232295]
A2Cは、AIチーム内で堅牢な意思決定を可能にするために設計された、多段階の共同決定フレームワークである。
決定における不確実性を認識し、必要な時に人間の専門家を軽視するように訓練されたAIシステムが組み込まれている。
論文 参考訳(メタデータ) (2024-01-25T02:31:52Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity? [47.36687555570123]
参加者60名からなる5つのワークショップからなるアルゴリズム決定の質的研究の結果を報告する。
意思決定における参加者の人間性に関する考察を議論し,「交渉可能性」という概念を導入する。
論文 参考訳(メタデータ) (2020-12-01T22:36:54Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。