論文の概要: Explainable Deep Reinforcement Learning: State of the Art and Challenges
- arxiv url: http://arxiv.org/abs/2301.09937v1
- Date: Tue, 24 Jan 2023 11:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-25 13:53:42.131122
- Title: Explainable Deep Reinforcement Learning: State of the Art and Challenges
- Title(参考訳): 説明可能な深層強化学習の現状と課題
- Authors: George A. Vouros
- Abstract要約: 解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
- 参考スコア(独自算出の注目度): 1.005130974691351
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Interpretability, explainability and transparency are key issues to
introducing Artificial Intelligence methods in many critical domains: This is
important due to ethical concerns and trust issues strongly connected to
reliability, robustness, auditability and fairness, and has important
consequences towards keeping the human in the loop in high levels of
automation, especially in critical cases for decision making, where both (human
and the machine) play important roles. While the research community has given
much attention to explainability of closed (or black) prediction boxes, there
are tremendous needs for explainability of closed-box methods that support
agents to act autonomously in the real world. Reinforcement learning methods,
and especially their deep versions, are such closed-box methods. In this
article we aim to provide a review of state of the art methods for explainable
deep reinforcement learning methods, taking also into account the needs of
human operators - i.e., of those that take the actual and critical decisions in
solving real-world problems. We provide a formal specification of the deep
reinforcement learning explainability problems, and we identify the necessary
components of a general explainable reinforcement learning framework. Based on
these, we provide a comprehensive review of state of the art methods,
categorizing them in classes according to the paradigm they follow, the
interpretable models they use, and the surface representation of explanations
provided. The article concludes identifying open questions and important
challenges.
- Abstract(参考訳): これは倫理的な懸念と信頼の問題から重要であり、信頼性、堅牢性、監査性、公平性に強く関連しており、高いレベルの自動化において、特に意思決定において重要なケースにおいて、人間と機械の両方が重要な役割を担っている。
研究コミュニティは、クローズド(またはブラック)予測ボックスの説明可能性に多くの注意を払っているが、エージェントが現実世界で自律的に行動するのをサポートするクローズドボックスメソッドの説明可能性には、膨大なニーズがある。
強化学習法、特に深層版はそのようなクローズドボックス法である。
本稿では,人間操作者のニーズ,すなわち実世界の問題解決において現実的かつ批判的な決定を下す者のニーズを考慮した,説明可能な深層強化学習手法に関する技術の現状についてレビューすることを目的とする。
我々は,深層強化学習説明可能性問題の形式的仕様を提供し,一般説明可能な強化学習フレームワークに必要な構成要素を同定する。
そこで,本研究では,これらの手法の現状を包括的にレビューし,それに従うパラダイム,使用する解釈可能なモデル,提供された説明の表面表現に応じてクラスに分類する。
この記事はオープンな質問と重要な課題を特定します。
関連論文リスト
- Intrinsic Barriers to Explaining Deep Foundation Models [17.952353851860742]
ディープ・ファンデーション・モデル(DFM)は前例のない機能を提供しますが、その複雑さが増すと、内部の作業を理解する上で大きな課題が生じます。
本稿では,DFMの基本的特性を検証し,現在の説明可能性法が抱える限界を精査することによって,この問題を考察する。
論文 参考訳(メタデータ) (2025-04-21T21:19:23Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - A Comprehensive Review on Financial Explainable AI [29.229196780505532]
金融の文脈における深層学習モデルの説明可能性向上を目的とした手法の比較調査を行う。
説明可能なAI手法のコレクションは,その特性に応じて分類する。
我々は、説明可能なAI手法を採用する際の懸念と課題を、適切かつ重要と考えられる今後の方向性とともにレビューする。
論文 参考訳(メタデータ) (2023-09-21T10:30:49Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Reinforcement Learning with Knowledge Representation and Reasoning: A
Brief Survey [24.81327556378729]
近年,強化学習は飛躍的な発展を遂げている。
いまだに複雑な実生活問題に対処する上で大きな障害に直面している。
近年,知識表現と推論の利用に対する関心が高まっている。
論文 参考訳(メタデータ) (2023-04-24T13:35:11Z) - SoK: Modeling Explainability in Security Analytics for Interpretability,
Trustworthiness, and Usability [2.656910687062026]
高信頼のセキュリティアプリケーションにおいて、解釈可能性、信頼性、およびユーザビリティが重要な考慮事項である。
ディープラーニングモデルは、分類や予測につながる重要な特徴や要因を特定するブラックボックスとして振る舞う。
ほとんどの説明法は矛盾した説明を提供し、忠実度は低く、敵の操作に影響を受けやすい。
論文 参考訳(メタデータ) (2022-10-31T15:01:49Z) - A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities [8.17368686298331]
人工知能(AI)システムのロバスト性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
本稿では,基本的・応用的両面から文献を整理・記述する3つの概念を紹介する。
我々は、人間が提供できる必要な知識を考慮して、AIの堅牢性を評価し、向上する上で、人間の中心的な役割を強調します。
論文 参考訳(メタデータ) (2022-10-17T10:00:51Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Fanoos: Multi-Resolution, Multi-Strength, Interactive Explanations for
Learned Systems [0.0]
Fanoosは、正式な検証テクニック、検索、ユーザインタラクションを組み合わせて、望まれる粒度と忠実度で説明を探索するフレームワークである。
Inverted double pendulum と learn CPU usage model の学習コントローラ上で,ユーザからの要求に応じて,Fanoos が説明の抽象性を生成・調整できることを示す。
論文 参考訳(メタデータ) (2020-06-22T17:35:53Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。