論文の概要: Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2403.05911v1
- Date: Sat, 9 Mar 2024 13:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:54:58.002284
- Title: Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning
- Title(参考訳): オフライン強化学習によるAIによる意思決定における人間中心目標の最適化
- Authors: Zana Bu\c{c}inca, Siddharth Swaroop, Amanda E. Paluch, Susan A.
Murphy, Krzysztof Z. Gajos
- Abstract要約: 人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
- 参考スコア(独自算出の注目度): 12.27907858317828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI assistance is increasingly infused into decision-making processes, we
may seek to optimize human-centric objectives beyond decision accuracy, such as
skill improvement or task enjoyment of individuals interacting with these
systems. With this aspiration in mind, we propose offline reinforcement
learning (RL) as a general approach for modeling human-AI decision-making to
optimize such human-centric objectives. Our approach seeks to optimize
different objectives by adaptively providing decision support to humans -- the
right type of assistance, to the right person, at the right time. We
instantiate our approach with two objectives: human-AI accuracy on the
decision-making task and human learning about the task, and learn policies that
optimize these two objectives from previous human-AI interaction data. We
compare the optimized policies against various baselines in AI-assisted
decision-making. Across two experiments (N = 316 and N = 964), our results
consistently demonstrate that people interacting with policies optimized for
accuracy achieve significantly better accuracy -- and even human-AI
complementarity -- compared to those interacting with any other type of AI
support. Our results further indicate that human learning is more difficult to
optimize than accuracy, with participants who interacted with
learning-optimized policies showing significant learning improvement only at
times. Our research (1) demonstrates offline RL to be a promising approach to
model dynamics of human-AI decision-making, leading to policies that may
optimize various human-centric objectives and provide novel insights about the
AI-assisted decision-making space, and (2) emphasizes the importance of
considering human-centric objectives beyond decision accuracy in AI-assisted
decision-making, while also opening up the novel research challenge of
optimizing such objectives.
- Abstract(参考訳): ai支援が意思決定プロセスにますます浸透するにつれ、私たちは、スキル向上やこれらのシステムと相互作用する個人のタスクの楽しさといった、意思決定の正確性を超えて、人間中心の目標を最適化しようとするかもしれません。
本稿では,このような人間中心の目的を最適化するための人間-AI意思決定をモデル化するための一般的なアプローチとして,オフライン強化学習(RL)を提案する。
我々のアプローチは、適切なタイプの支援を、適切なタイミングで、人間に適応的に提供することで、異なる目的を最適化することを目指している。
我々は、意思決定タスクにおける人間-AIの精度とタスクに関する人間の学習の2つの目標と、これらの2つの目標を前回の人間-AIインタラクションデータから最適化するポリシーの2つを用いて、このアプローチをインスタンス化する。
我々はAIによる意思決定における様々な基準に対する最適化されたポリシーを比較する。
2つの実験(N = 316 と N = 964)において、我々の結果は、精度に最適化されたポリシーと相互作用する人々が、他の種類のAIサポートと相互作用するよりもはるかに優れた精度(および人間とAIの相補性)を達成することを一貫して示しています。
以上の結果から,人間学習は正確性よりも最適化が困難であり,学習に最適化された政策と相互作用する参加者は,時にのみ大きな学習改善を示すことが示された。
本研究は,人間のAI意思決定のダイナミクスをモデル化する上で,オフラインRLが有望なアプローチであることを示し,AI支援意思決定空間に関する新たな知見を提供するとともに,AI支援意思決定における意思決定精度を超えた人間中心の目標を検討することの重要性を強調するとともに,その目的を最適化する新たな研究課題を開く。
関連論文リスト
- Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making [24.258056813524167]
本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
論文 参考訳(メタデータ) (2024-01-11T11:22:36Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。