論文の概要: Utilizing Explainability Techniques for Reinforcement Learning Model
Assurance
- arxiv url: http://arxiv.org/abs/2311.15838v1
- Date: Mon, 27 Nov 2023 14:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 15:06:03.867052
- Title: Utilizing Explainability Techniques for Reinforcement Learning Model
Assurance
- Title(参考訳): 説明可能性を用いた強化学習モデル保証
- Authors: Alexander Tapley and Kyle Gatesman and Luis Robaina and Brett Bissey
and Joseph Weissman
- Abstract要約: 説明可能な強化学習(XRL)は、深層強化学習(DRL)モデルの意思決定プロセスに透明性を提供する。
本稿では,オープンソースのPythonライブラリであるARLIN (Assured RL Model Interrogation) Toolkitを紹介する。
- 参考スコア(独自算出の注目度): 42.302469854610315
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable Reinforcement Learning (XRL) can provide transparency into the
decision-making process of a Deep Reinforcement Learning (DRL) model and
increase user trust and adoption in real-world use cases. By utilizing XRL
techniques, researchers can identify potential vulnerabilities within a trained
DRL model prior to deployment, therefore limiting the potential for mission
failure or mistakes by the system. This paper introduces the ARLIN (Assured RL
Model Interrogation) Toolkit, an open-source Python library that identifies
potential vulnerabilities and critical points within trained DRL models through
detailed, human-interpretable explainability outputs. To illustrate ARLIN's
effectiveness, we provide explainability visualizations and vulnerability
analysis for a publicly available DRL model. The open-source code repository is
available for download at https://github.com/mitre/arlin.
- Abstract(参考訳): 説明可能な強化学習(XRL)は、Deep Reinforcement Learning(DRL)モデルの意思決定プロセスへの透明性を提供し、現実世界のユースケースにおけるユーザの信頼と採用を高める。
XRL技術を利用することで、研究者はデプロイ前に訓練されたDRLモデル内の潜在的な脆弱性を特定できるため、システムによるミッションの失敗やミスの可能性を制限できる。
本稿では,訓練されたDRLモデルの潜在的な脆弱性と臨界点を,人間の解釈可能な詳細な説明可能性出力を通じて識別するオープンソースPythonライブラリであるARLIN(Assured RL Model Interrogation) Toolkitを紹介する。
arlinの有効性を説明するために、公開のdrlモデルに対して、説明可能性の可視化と脆弱性分析を提供する。
オープンソースコードリポジトリはhttps://github.com/mitre/arlin.comからダウンロードできる。
関連論文リスト
- A Survey for Deep Reinforcement Learning Based Network Intrusion Detection [3.493620624883548]
本稿では,ネットワーク侵入検出における深部強化学習(DRL)の可能性と課題について考察する。
DRLモデルの性能は分析され、DRLは将来性を持っているが、近年の多くの技術は未解明のままである。
この論文は、現実世界のネットワークシナリオにおけるDRLの展開とテストを強化するための推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-09-25T13:39:30Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Improving Large Language Models via Fine-grained Reinforcement Learning with Minimum Editing Constraint [104.53687944498155]
強化学習(RL)は、大規模言語モデル(LLM)の訓練に広く用いられている。
本稿では,報酬モデルとして生成モデルを組み込んだRL法 RLMEC を提案する。
生成報酬モデルに基づいて、トレーニングのためのトークンレベルRL目標と、RLプロセスの安定化のための模倣ベース正規化を設計する。
論文 参考訳(メタデータ) (2024-01-11T17:58:41Z) - ORL-AUDITOR: Dataset Auditing in Offline Deep Reinforcement Learning [42.87245000172943]
オフラインの深層強化学習(オフラインDRL)は、事前にコンパイルされたデータセットのモデルをトレーニングするために頻繁に使用される。
オフラインDRLシナリオを対象とした最初のトラジェクトリレベルのデータセット監査機構であるORL-AUDITORを提案する。
複数のオフラインDRLモデルとタスクに対する実験により、監査精度が95%以上、偽陽性率が2.88%未満であるORL-AUDITORの有効性が示された。
論文 参考訳(メタデータ) (2023-09-06T15:28:43Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [38.70863329476517]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Faults in Deep Reinforcement Learning Programs: A Taxonomy and A
Detection Approach [13.57291726431012]
深層強化学習(Deep Reinforcement Learning, DRL)は、強化学習(RL)分野における深層学習の応用である。
本稿では,DRLプログラムで発生した障害を分類する最初の試みについて述べる。
DRLプログラムのメタモデルを定義し,モデルに基づく故障検出手法であるDRLinterを開発した。
論文 参考訳(メタデータ) (2021-01-01T01:49:03Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。