論文の概要: Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2403.05911v1
- Date: Sat, 9 Mar 2024 13:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:54:58.002284
- Title: Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning
- Title(参考訳): オフライン強化学習によるAIによる意思決定における人間中心目標の最適化
- Authors: Zana Bu\c{c}inca, Siddharth Swaroop, Amanda E. Paluch, Susan A.
Murphy, Krzysztof Z. Gajos
- Abstract要約: 人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
- 参考スコア(独自算出の注目度): 12.27907858317828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI assistance is increasingly infused into decision-making processes, we
may seek to optimize human-centric objectives beyond decision accuracy, such as
skill improvement or task enjoyment of individuals interacting with these
systems. With this aspiration in mind, we propose offline reinforcement
learning (RL) as a general approach for modeling human-AI decision-making to
optimize such human-centric objectives. Our approach seeks to optimize
different objectives by adaptively providing decision support to humans -- the
right type of assistance, to the right person, at the right time. We
instantiate our approach with two objectives: human-AI accuracy on the
decision-making task and human learning about the task, and learn policies that
optimize these two objectives from previous human-AI interaction data. We
compare the optimized policies against various baselines in AI-assisted
decision-making. Across two experiments (N = 316 and N = 964), our results
consistently demonstrate that people interacting with policies optimized for
accuracy achieve significantly better accuracy -- and even human-AI
complementarity -- compared to those interacting with any other type of AI
support. Our results further indicate that human learning is more difficult to
optimize than accuracy, with participants who interacted with
learning-optimized policies showing significant learning improvement only at
times. Our research (1) demonstrates offline RL to be a promising approach to
model dynamics of human-AI decision-making, leading to policies that may
optimize various human-centric objectives and provide novel insights about the
AI-assisted decision-making space, and (2) emphasizes the importance of
considering human-centric objectives beyond decision accuracy in AI-assisted
decision-making, while also opening up the novel research challenge of
optimizing such objectives.
- Abstract(参考訳): ai支援が意思決定プロセスにますます浸透するにつれ、私たちは、スキル向上やこれらのシステムと相互作用する個人のタスクの楽しさといった、意思決定の正確性を超えて、人間中心の目標を最適化しようとするかもしれません。
本稿では,このような人間中心の目的を最適化するための人間-AI意思決定をモデル化するための一般的なアプローチとして,オフライン強化学習(RL)を提案する。
我々のアプローチは、適切なタイプの支援を、適切なタイミングで、人間に適応的に提供することで、異なる目的を最適化することを目指している。
我々は、意思決定タスクにおける人間-AIの精度とタスクに関する人間の学習の2つの目標と、これらの2つの目標を前回の人間-AIインタラクションデータから最適化するポリシーの2つを用いて、このアプローチをインスタンス化する。
我々はAIによる意思決定における様々な基準に対する最適化されたポリシーを比較する。
2つの実験(N = 316 と N = 964)において、我々の結果は、精度に最適化されたポリシーと相互作用する人々が、他の種類のAIサポートと相互作用するよりもはるかに優れた精度(および人間とAIの相補性)を達成することを一貫して示しています。
以上の結果から,人間学習は正確性よりも最適化が困難であり,学習に最適化された政策と相互作用する参加者は,時にのみ大きな学習改善を示すことが示された。
本研究は,人間のAI意思決定のダイナミクスをモデル化する上で,オフラインRLが有望なアプローチであることを示し,AI支援意思決定空間に関する新たな知見を提供するとともに,AI支援意思決定における意思決定精度を超えた人間中心の目標を検討することの重要性を強調するとともに,その目的を最適化する新たな研究課題を開く。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Controllable Preference Optimization: Toward Controllable
Multi-Objective Alignment [107.63756895544842]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making [24.258056813524167]
本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
論文 参考訳(メタデータ) (2024-01-11T11:22:36Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - On the Interdependence of Reliance Behavior and Accuracy in AI-Assisted
Decision-Making [0.0]
我々は,AIによる意思決定における信頼行動と精度の相互依存性を分析する。
この相互依存をより具体化するための視覚的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。