論文の概要: A Survey on Explainable Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2502.06869v1
- Date: Sat, 08 Feb 2025 05:30:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:35.349701
- Title: A Survey on Explainable Deep Reinforcement Learning
- Title(参考訳): 説明可能な深層強化学習に関する調査研究
- Authors: Zelei Cheng, Jiahao Yu, Xinyu Xing,
- Abstract要約: Deep Reinforcement Learning (DRL)は、さまざまな領域にわたるシーケンシャルな意思決定タスクにおいて、顕著な成功を収めた。
ブラックボックスのニューラルアーキテクチャに依存しているため、高信頼のアプリケーションにおける解釈可能性、信頼性、デプロイメントが妨げられる。
説明可能なDeep Reinforcement Learning(XRL)は、機能レベル、状態レベル、データセットレベル、モデルレベルの説明技術を通じて透明性を高めることで、これらの課題に対処する。
- 参考スコア(独自算出の注目度): 18.869827229746697
- License:
- Abstract: Deep Reinforcement Learning (DRL) has achieved remarkable success in sequential decision-making tasks across diverse domains, yet its reliance on black-box neural architectures hinders interpretability, trust, and deployment in high-stakes applications. Explainable Deep Reinforcement Learning (XRL) addresses these challenges by enhancing transparency through feature-level, state-level, dataset-level, and model-level explanation techniques. This survey provides a comprehensive review of XRL methods, evaluates their qualitative and quantitative assessment frameworks, and explores their role in policy refinement, adversarial robustness, and security. Additionally, we examine the integration of reinforcement learning with Large Language Models (LLMs), particularly through Reinforcement Learning from Human Feedback (RLHF), which optimizes AI alignment with human preferences. We conclude by highlighting open research challenges and future directions to advance the development of interpretable, reliable, and accountable DRL systems.
- Abstract(参考訳): Deep Reinforcement Learning(DRL)は、さまざまなドメインにわたるシーケンシャルな意思決定タスクにおいて、大きな成功を収めています。
説明可能なDeep Reinforcement Learning(XRL)は、機能レベル、状態レベル、データセットレベル、モデルレベルの説明技術を通じて透明性を高めることで、これらの課題に対処する。
この調査は、XRL手法の総合的なレビューを提供し、その質的、定量的な評価フレームワークを評価し、政策の洗練、敵の堅牢性、セキュリティにおける彼らの役割を探求する。
さらに,強化学習とLarge Language Models (LLMs)の統合について検討し,特に人間の嗜好とAIの連携を最適化するReinforcement Learning from Human Feedback (RLHF)を用いて検討した。
我々は、解釈可能で信頼性があり、説明可能なDRLシステムの開発を進めるためのオープンな研究課題と今後の方向性を強調して結論付ける。
関連論文リスト
- Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning [0.0]
マルウェアの帰属に対するDRLモデルの開発には、広範な研究、反復的なコーディング、多数の調整が含まれていた。
モデルは低い精度で苦労したが、アーキテクチャと学習アルゴリズムの永続的な調整により、精度は劇的に向上した。
トレーニングの終わりまでに、モデルは98%近い精度に達し、マルウェアの活動を正確に認識し、属性付けする強力な能力を示した。
論文 参考訳(メタデータ) (2024-10-15T10:10:33Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - RLHF Deciphered: A Critical Analysis of Reinforcement Learning from Human Feedback for LLMs [49.386699863989335]
大きな言語モデル(LLM)を訓練し、人間の効果的なアシスタントとして機能させるには、慎重に検討する必要がある。
有望なアプローチとして、人間からのフィードバック(RLHF)からの強化学習がある。
本稿では、強化学習原理のレンズを通してRLHFを分析し、その基礎を理解する。
論文 参考訳(メタデータ) (2024-04-12T15:54:15Z) - Structure in Deep Reinforcement Learning: A Survey and Open Problems [22.77618616444693]
関数近似のためのディープニューラルネットワーク(DNN)の表現能力に支えられた強化学習(RL)は、多くのアプリケーションでかなりの成功を収めている。
しかし、様々な現実のシナリオに対処する実践性は、多様で予測不可能なダイナミクスによって特徴づけられるが、依然として限られている。
この制限は、データ効率の低下、一般化能力の制限、安全性保証の欠如、解釈可能性の欠如に起因している。
論文 参考訳(メタデータ) (2023-06-28T08:48:40Z) - Reinforcement Learning from Diverse Human Preferences [68.4294547285359]
本稿では,人選好ラベルをクラウドソーシングし,多様な嗜好から学習する手法を開発した。
提案手法はDMcontrolとMeta-worldの様々なタスクでテストされる。
多様なフィードバックから学ぶと、既存の好みベースのRLアルゴリズムよりも一貫性があり、大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-27T15:18:54Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [38.70863329476517]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - Offline Reinforcement Learning with Instrumental Variables in Confounded
Markov Decision Processes [93.61202366677526]
未測定の共同設立者を対象にオフライン強化学習(RL)について検討した。
そこで本稿では, 最適クラスポリシーを見つけるための, 有限サンプルの準最適性を保証した多種多様なポリシー学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T22:03:55Z) - Deep Reinforcement Learning Versus Evolution Strategies: A Comparative
Survey [2.554326189662943]
深層強化学習(DRL)と進化戦略(ESs)は多くのシーケンシャルな意思決定問題において人間レベルの制御を上回っている。
DRLとESの長所と短所に関する洞察を得るために、それぞれの能力と限界について分析する。
論文 参考訳(メタデータ) (2021-09-28T18:45:30Z) - Explainable Reinforcement Learning for Broad-XAI: A Conceptual Framework
and Survey [0.7366405857677226]
強化学習(Reinforcement Learning, RL)法は、ブロードXAIの開発に必要な認知モデルのための潜在的なバックボーンを提供する。
RLは、さまざまなシーケンシャルな意思決定問題の解決に成功している一連のアプローチである。
本稿では,現在のXRL研究を統一し,Broad-XAI開発のバックボーンとしてRLを用いるCausal XRL Framework (CXF) という概念的フレームワークを導入することを目的とする。
論文 参考訳(メタデータ) (2021-08-20T05:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。