論文の概要: Human-AI Collaboration in Decision-Making: Beyond Learning to Defer
- arxiv url: http://arxiv.org/abs/2206.13202v1
- Date: Mon, 27 Jun 2022 11:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 14:25:05.049979
- Title: Human-AI Collaboration in Decision-Making: Beyond Learning to Defer
- Title(参考訳): 意思決定における人間とAIのコラボレーション
- Authors: Diogo Leit\~ao, Pedro Saleiro, M\'ario A.T. Figueiredo, Pedro Bizarro
- Abstract要約: 意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
- 参考スコア(独自算出の注目度): 4.874780144224057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-AI collaboration (HAIC) in decision-making aims to create synergistic
teaming between human decision-makers and AI systems. Learning to Defer (L2D)
has been presented as a promising framework to determine who among humans and
AI should take which decisions in order to optimize the performance and
fairness of the combined system. Nevertheless, L2D entails several often
unfeasible requirements, such as the availability of predictions from humans
for every instance or ground-truth labels independent from said
decision-makers. Furthermore, neither L2D nor alternative approaches tackle
fundamental issues of deploying HAIC in real-world settings, such as capacity
management or dealing with dynamic environments. In this paper, we aim to
identify and review these and other limitations, pointing to where
opportunities for future research in HAIC may lie.
- Abstract(参考訳): 意思決定におけるヒューマンAIコラボレーション(HAIC)は、人間の意思決定者とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらがどの決定を下すべきかを判断し、システムの性能と公平性を最適化する、有望なフレームワークとして提示されている。
それでもL2Dには、すべてのケースで人間が予測できることや、意思決定者から独立した地道なラベルなど、しばしば実現不可能な要件がいくつか含まれている。
さらに、L2Dや代替アプローチは、キャパシティ管理や動的環境の処理など、現実の環境でHAICをデプロイするという根本的な問題に対処するものではない。
本稿では,haicにおける今後の研究の機会がどこにあるかを示し,これらその他の制約を特定し,検討することを目的とする。
関連論文リスト
- Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAI-Co2を提案する。
我々は、HAI-Co2を形式化し、それが直面する困難なオープンリサーチ問題について議論する。
本稿では,HAI-Co2のケーススタディと,モノリシックな生成型AIモデルとの比較による有効性を示す。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Towards Optimizing Human-Centric Objectives in AI-Assisted Decision-Making With Offline Reinforcement Learning [10.08973043408929]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
精度に最適化されたポリシーと対話する人は、他の種類のAIサポートと対話する人々よりもはるかに精度が高いことを示す。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams [19.91751748232295]
A2Cは、AIチーム内で堅牢な意思決定を可能にするために設計された、多段階の共同決定フレームワークである。
決定における不確実性を認識し、必要な時に人間の専門家を軽視するように訓練されたAIシステムが組み込まれている。
論文 参考訳(メタデータ) (2024-01-25T02:31:52Z) - Decision-Oriented Dialogue for Human-AI Collaboration [62.367222979251444]
そこでは,大規模言語モデル(LM)のようなAIアシスタントが,自然言語を介して複数の人間と協調して複雑な意思決定を行うための,意思決定指向対話と呼ばれるタスクのクラスについて述べる。
日常的な意思決定に直面する3つの領域を定式化し,(1)レビュアーの会議論文への課題の選択,(2)都市における複数段階の旅程の計画,(3)友人集団の旅行計画の交渉を行う。
各タスクに対して、エージェントが到達した最終決定の質に基づいて報酬を受け取る対話環境を構築する。
論文 参考訳(メタデータ) (2023-05-31T17:50:02Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。