論文の概要: Optimising Human-AI Collaboration by Learning Convincing Explanations
- arxiv url: http://arxiv.org/abs/2311.07426v1
- Date: Mon, 13 Nov 2023 16:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:46:43.678088
- Title: Optimising Human-AI Collaboration by Learning Convincing Explanations
- Title(参考訳): 説明の理解による人間とAIの協調の最適化
- Authors: Alex J. Chan, Alihan Huyuk, Mihaela van der Schaar
- Abstract要約: 本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
- 参考スコア(独自算出の注目度): 62.81395661556852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are being increasingly deployed to take, or assist in
taking, complicated and high-impact decisions, from quasi-autonomous vehicles
to clinical decision support systems. This poses challenges, particularly when
models have hard-to-detect failure modes and are able to take actions without
oversight. In order to handle this challenge, we propose a method for a
collaborative system that remains safe by having a human ultimately making
decisions, while giving the model the best opportunity to convince and debate
them with interpretable explanations. However, the most helpful explanation
varies among individuals and may be inconsistent across stated preferences. To
this end we develop an algorithm, Ardent, to efficiently learn a ranking
through interaction and best assist humans complete a task. By utilising a
collaborative approach, we can ensure safety and improve performance while
addressing transparency and accountability concerns. Ardent enables efficient
and effective decision-making by adapting to individual preferences for
explanations, which we validate through extensive simulations alongside a user
study involving a challenging image classification task, demonstrating
consistent improvement over competing systems.
- Abstract(参考訳): 機械学習モデルは、準自律車から臨床意思決定支援システムに至るまで、ますます複雑で影響の大きい意思決定を取り入れたり、支援したりするためにデプロイされてきている。
これは特に、モデルが検出しにくい障害モードを持ち、見落としなくアクションを実行できる場合に問題となる。
この課題に対処するために,我々は,人間が最終的に意思決定を行いながら,モデルを説得し,解釈可能な説明で議論する最善の機会を与えながら,安全であり続ける協調システムのための手法を提案する。
しかし、最も有用な説明は個人によって異なり、明示された選好と矛盾する可能性がある。
そこで我々は,対話を通して効率よくランキングを学習し,人間のタスク完了を支援するアルゴリズムArdentを開発した。
共同アプローチを利用することで、透明性と説明責任の懸念に対処しながら、安全性を確保し、パフォーマンスを向上させることができます。
Ardentは、説明のための個別の嗜好に適応して効率よく効果的な意思決定を可能にし、課題の画像分類タスクを含むユーザスタディと並行して広範なシミュレーションを通して検証し、競合するシステムに対して一貫した改善を示す。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Analyzing Operator States and the Impact of AI-Enhanced Decision Support
in Control Rooms: A Human-in-the-Loop Specialized Reinforcement Learning
Framework for Intervention Strategies [0.9378955659006951]
複雑な産業・化学プロセス制御室では、安全性と効率性に効果的な意思決定が不可欠である。
本稿では,AIに基づく意思決定支援システムが人間と機械のインタフェース改善に取り入れた影響と応用について検討する。
論文 参考訳(メタデータ) (2024-02-20T18:31:27Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Blessing from Human-AI Interaction: Super Reinforcement Learning in
Confounded Environments [19.944163846660498]
本稿では,データ駆動シーケンシャル意思決定に人間-AIインタラクションを活用する超強化学習のパラダイムを紹介する。
未測定のコンファウンディングを伴う意思決定プロセスでは、過去のエージェントによって取られたアクションは、未開示の情報に対する貴重な洞察を提供することができる。
我々は、いくつかの超政治学習アルゴリズムを開発し、その理論的性質を体系的に研究する。
論文 参考訳(メタデータ) (2022-09-29T16:03:07Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Improving Human Sequential Decision-Making with Reinforcement Learning [29.334511328067777]
トレースデータから"ベストプラクティス"を抽出できる新しい機械学習アルゴリズムを設計する。
我々のアルゴリズムは、労働者の行動と最適な政策によって取られた行動のギャップを最もうまく埋めるヒントを選択する。
実験の結果,提案アルゴリズムが生成したチップは人体の性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-08-19T02:57:58Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Automatic Discovery of Interpretable Planning Strategies [9.410583483182657]
我々は、慣用的ポリシーを単純かつ解釈可能な記述に変換する方法であるAI-Interpretを紹介する。
フローチャートとしてAI-Interpretが生み出す決定ルールを守れば、人々の計画戦略や意思決定は大幅に改善される。
論文 参考訳(メタデータ) (2020-05-24T12:24:52Z) - A New Framework for Query Efficient Active Imitation Learning [5.167794607251493]
彼の好みと目的に基づいて、報酬と安全でない状態を知っている人間の専門家がいますが、人間の専門家に問い合わせるのは高価です。
本稿では,ユーザの報酬関数のモデルと効率的なクエリを積極的かつインタラクティブに学習する,模倣学習(IL)アルゴリズムを提案する。
提案手法は、状態ベース2次元ナビゲーションタスク、ロボット制御タスク、画像ベースビデオゲームに基づいて、シミュレーションされた人間を用いて評価する。
論文 参考訳(メタデータ) (2019-12-30T18:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。