論文の概要: Learning When to Advise Human Decision Makers
- arxiv url: http://arxiv.org/abs/2209.13578v1
- Date: Tue, 27 Sep 2022 17:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:07:15.108105
- Title: Learning When to Advise Human Decision Makers
- Title(参考訳): 意思決定者へのアドバイスをいつ学ぶか
- Authors: Gali Noti and Yiling Chen
- Abstract要約: 本稿では,人間ユーザと双方向で対話するAIシステムの設計を提案し,それが人間にとって有益である場合にのみアドバイスを行う。
このアプローチには、人間の学習の促進、人間の意思決定者の補完的な強みの維持、アドバイスに対するより肯定的な応答性など、さらなるメリットがあります。
- 参考スコア(独自算出の注目度): 12.47847261193524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems are increasingly used for providing
advice to facilitate human decision making. While a large body of work has
explored how AI systems can be optimized to produce accurate and fair advice
and how algorithmic advice should be presented to human decision makers, in
this work we ask a different basic question: When should algorithms provide
advice? Motivated by limitations of the current practice of constantly
providing algorithmic advice, we propose the design of AI systems that interact
with the human user in a two-sided manner and provide advice only when it is
likely to be beneficial to the human in making their decision. Our AI systems
learn advising policies using past human decisions. Then, for new cases, the
learned policies utilize input from the human to identify cases where
algorithmic advice would be useful, as well as those where the human is better
off deciding alone. We conduct a large-scale experiment to evaluate our
approach by using data from the US criminal justice system on pretrial-release
decisions. In our experiment, participants were asked to assess the risk of
defendants to violate their release terms if released and were advised by
different advising approaches. The results show that our interactive-advising
approach manages to provide advice at times of need and to significantly
improve human decision making compared to fixed, non-interactive advising
approaches. Our approach has additional advantages in facilitating human
learning, preserving complementary strengths of human decision makers, and
leading to more positive responsiveness to the advice.
- Abstract(参考訳): 人工知能(AI)システムは、人間の意思決定を促進するためのアドバイスを提供するために、ますます使われている。
大規模な研究で、AIシステムが正確で公正なアドバイスを生み出すためにどのように最適化できるか、そして人間の意思決定者に対してどのようにアルゴリズムによるアドバイスを提示すべきかを調査してきた。
アルゴリズム的アドバイスを常に提供する現在の慣行の制限により、我々は、人間のユーザと双方向に対話するAIシステムの設計を提案し、意思決定において人間に利益をもたらす可能性がある場合にのみアドバイスを提供する。
我々のaiシステムは過去の人間の決定を使って政策を助言する。
そして、新しいケースでは、学習されたポリシーは人間からの入力を利用して、アルゴリズム的アドバイスが有用である場合と、人間が単独で決定する方が良い場合を識別する。
我々は、米国刑事司法制度のデータを用いて、我々のアプローチを評価するために大規模な実験を行う。
本実験では, 参加者に対して, 釈放条件違反のリスク評価を依頼し, 異なる助言アプローチで助言した。
その結果,対話型アドバイザリングアプローチは,必要な時にアドバイスを提供し,固定型非対話型アドバイザリングアプローチと比較して,人間の意思決定を著しく改善できることがわかった。
このアプローチには、人間の学習の促進、人間の意思決定者の補完的な強みの維持、アドバイスに対するよりポジティブな応答性など、さらなるメリットがあります。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Designing Algorithmic Recommendations to Achieve Human-AI Complementarity [2.4247752614854203]
人間の意思決定を支援するレコメンデーションアルゴリズムの設計を形式化する。
我々は、潜在的なアウトカムフレームワークを使用して、ヒトの意思決定者による二元的治療選択に対するレコメンデーションの効果をモデル化する。
機械学習で実装可能な最小限の推奨アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-05-02T17:15:30Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Learning to Make Adherence-Aware Advice [8.419688203654948]
本稿では,人間の従順性を考慮した逐次意思決定モデルを提案する。
最適なアドバイスポリシーを学習し、重要なタイムスタンプでのみアドバイスを行う学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-01T23:15:55Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Improving Human Sequential Decision-Making with Reinforcement Learning [29.334511328067777]
トレースデータから"ベストプラクティス"を抽出できる新しい機械学習アルゴリズムを設計する。
我々のアルゴリズムは、労働者の行動と最適な政策によって取られた行動のギャップを最もうまく埋めるヒントを選択する。
実験の結果,提案アルゴリズムが生成したチップは人体の性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-08-19T02:57:58Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Automatic Discovery of Interpretable Planning Strategies [9.410583483182657]
我々は、慣用的ポリシーを単純かつ解釈可能な記述に変換する方法であるAI-Interpretを紹介する。
フローチャートとしてAI-Interpretが生み出す決定ルールを守れば、人々の計画戦略や意思決定は大幅に改善される。
論文 参考訳(メタデータ) (2020-05-24T12:24:52Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。