論文の概要: Explainable Deep Reinforcement Learning: State of the Art and Challenges
- arxiv url: http://arxiv.org/abs/2301.09937v1
- Date: Tue, 24 Jan 2023 11:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:53:42.131122
- Title: Explainable Deep Reinforcement Learning: State of the Art and Challenges
- Title(参考訳): 説明可能な深層強化学習の現状と課題
- Authors: George A. Vouros
- Abstract要約: 解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
- 参考スコア(独自算出の注目度): 1.005130974691351
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Interpretability, explainability and transparency are key issues to
introducing Artificial Intelligence methods in many critical domains: This is
important due to ethical concerns and trust issues strongly connected to
reliability, robustness, auditability and fairness, and has important
consequences towards keeping the human in the loop in high levels of
automation, especially in critical cases for decision making, where both (human
and the machine) play important roles. While the research community has given
much attention to explainability of closed (or black) prediction boxes, there
are tremendous needs for explainability of closed-box methods that support
agents to act autonomously in the real world. Reinforcement learning methods,
and especially their deep versions, are such closed-box methods. In this
article we aim to provide a review of state of the art methods for explainable
deep reinforcement learning methods, taking also into account the needs of
human operators - i.e., of those that take the actual and critical decisions in
solving real-world problems. We provide a formal specification of the deep
reinforcement learning explainability problems, and we identify the necessary
components of a general explainable reinforcement learning framework. Based on
these, we provide a comprehensive review of state of the art methods,
categorizing them in classes according to the paradigm they follow, the
interpretable models they use, and the surface representation of explanations
provided. The article concludes identifying open questions and important
challenges.
- Abstract(参考訳): これは倫理的な懸念と信頼の問題から重要であり、信頼性、堅牢性、監査性、公平性に強く関連しており、高いレベルの自動化において、特に意思決定において重要なケースにおいて、人間と機械の両方が重要な役割を担っている。
研究コミュニティは、クローズド(またはブラック)予測ボックスの説明可能性に多くの注意を払っているが、エージェントが現実世界で自律的に行動するのをサポートするクローズドボックスメソッドの説明可能性には、膨大なニーズがある。
強化学習法、特に深層版はそのようなクローズドボックス法である。
本稿では,人間操作者のニーズ,すなわち実世界の問題解決において現実的かつ批判的な決定を下す者のニーズを考慮した,説明可能な深層強化学習手法に関する技術の現状についてレビューすることを目的とする。
我々は,深層強化学習説明可能性問題の形式的仕様を提供し,一般説明可能な強化学習フレームワークに必要な構成要素を同定する。
そこで,本研究では,これらの手法の現状を包括的にレビューし,それに従うパラダイム,使用する解釈可能なモデル,提供された説明の表面表現に応じてクラスに分類する。
この記事はオープンな質問と重要な課題を特定します。
関連論文リスト
- On Championing Foundation Models: From Explainability to Interpretability [48.2313835471321]
本調査は、上記の原則に準拠し、ブラックボックス基礎モデルに適用された解釈可能な手法をレビューすることを目的としている。
これらの手法は機械学習理論に根ざし、一般化性能、表現能力、動的挙動の分析を網羅している。
これらは、推論能力やトレーニングダイナミクスから倫理的意味まで、FMのワークフロー全体の完全な解釈を提供する。
論文 参考訳(メタデータ) (2024-10-15T09:48:03Z) - A Comprehensive Review on Financial Explainable AI [29.229196780505532]
金融の文脈における深層学習モデルの説明可能性向上を目的とした手法の比較調査を行う。
説明可能なAI手法のコレクションは,その特性に応じて分類する。
我々は、説明可能なAI手法を採用する際の懸念と課題を、適切かつ重要と考えられる今後の方向性とともにレビューする。
論文 参考訳(メタデータ) (2023-09-21T10:30:49Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Reinforcement Learning with Knowledge Representation and Reasoning: A
Brief Survey [24.81327556378729]
近年,強化学習は飛躍的な発展を遂げている。
いまだに複雑な実生活問題に対処する上で大きな障害に直面している。
近年,知識表現と推論の利用に対する関心が高まっている。
論文 参考訳(メタデータ) (2023-04-24T13:35:11Z) - A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities [8.17368686298331]
人工知能(AI)システムのロバスト性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
本稿では,基本的・応用的両面から文献を整理・記述する3つの概念を紹介する。
我々は、人間が提供できる必要な知識を考慮して、AIの堅牢性を評価し、向上する上で、人間の中心的な役割を強調します。
論文 参考訳(メタデータ) (2022-10-17T10:00:51Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Fanoos: Multi-Resolution, Multi-Strength, Interactive Explanations for
Learned Systems [0.0]
Fanoosは、正式な検証テクニック、検索、ユーザインタラクションを組み合わせて、望まれる粒度と忠実度で説明を探索するフレームワークである。
Inverted double pendulum と learn CPU usage model の学習コントローラ上で,ユーザからの要求に応じて,Fanoos が説明の抽象性を生成・調整できることを示す。
論文 参考訳(メタデータ) (2020-06-22T17:35:53Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。