論文の概要: Explainable Reinforcement Learning via Model Transforms
- arxiv url: http://arxiv.org/abs/2209.12006v1
- Date: Sat, 24 Sep 2022 13:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:37:45.293169
- Title: Explainable Reinforcement Learning via Model Transforms
- Title(参考訳): モデル変換による説明可能な強化学習
- Authors: Mira Finkelstein, Lucy Liu, Nitsan Levy Schlot, Yoav Kolumbus, David
C. Parkes, Jeffrey S. Rosenshein and Sarah Keren
- Abstract要約: 基礎となるマルコフ決定プロセスが完全には分かっていないとしても、それにもかかわらず、自動的に説明を生成するために利用することができる、と我々は主張する。
本稿では,従来の文献で最適ポリシー探索の高速化に用いられていた形式的MDP抽象化と変換を用いて,説明を自動的に生成することを提案する。
- 参考スコア(独自算出の注目度): 18.385505289067023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding emerging behaviors of reinforcement learning (RL) agents may be
difficult since such agents are often trained in complex environments using
highly complex decision making procedures. This has given rise to a variety of
approaches to explainability in RL that aim to reconcile discrepancies that may
arise between the behavior of an agent and the behavior that is anticipated by
an observer. Most recent approaches have relied either on domain knowledge,
that may not always be available, on an analysis of the agent's policy, or on
an analysis of specific elements of the underlying environment, typically
modeled as a Markov Decision Process (MDP). Our key claim is that even if the
underlying MDP is not fully known (e.g., the transition probabilities have not
been accurately learned) or is not maintained by the agent (i.e., when using
model-free methods), it can nevertheless be exploited to automatically generate
explanations. For this purpose, we suggest using formal MDP abstractions and
transforms, previously used in the literature for expediting the search for
optimal policies, to automatically produce explanations. Since such transforms
are typically based on a symbolic representation of the environment, they may
represent meaningful explanations for gaps between the anticipated and actual
agent behavior. We formally define this problem, suggest a class of transforms
that can be used for explaining emergent behaviors, and suggest methods that
enable efficient search for an explanation. We demonstrate the approach on a
set of standard benchmarks.
- Abstract(参考訳): 強化学習(RL)エージェントの出現する振る舞いを理解することは、複雑な環境において、非常に複雑な意思決定手順を用いて訓練されることがしばしばあるため困難である。
このことは、エージェントの振る舞いと観察者が期待する振る舞いの間に生じる相違を解消することを目的としたRLにおける説明可能性に対する様々なアプローチを生み出した。
最近のアプローチでは、常に利用できるとは限らないドメイン知識、エージェントのポリシーの分析、またはマルコフ決定プロセス(MDP)としてモデル化された基礎環境の特定の要素の分析に頼っている。
我々の重要な主張は、基礎となるMDPが完全には知られていないとしても(例えば、遷移確率が正確に学習されていない)、エージェントによって維持されていない場合(すなわち、モデルフリーなメソッドを使用する場合)、それにもかかわらず、自動的に説明を生成するために利用することができるということである。
そこで本稿では,従来の文献で最適ポリシー探索の迅速化に用いられた形式的MDP抽象化と変換を用いて,説明の自動生成を提案する。
このような変換は、典型的には環境の象徴的な表現に基づいているため、予測された行動と実際のエージェントの振る舞いの間のギャップの有意義な説明を表すことができる。
この問題を形式的に定義し,創発的行動の説明に使用できる変換のクラスを提案し,効率的な説明探索を可能にする手法を提案する。
我々は、一連の標準ベンチマークでこのアプローチを実証する。
関連論文リスト
- Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - Inverse Decision Modeling: Learning Interpretable Representations of
Behavior [72.80902932543474]
我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
論文 参考訳(メタデータ) (2023-10-28T05:05:01Z) - Explainable Multi-Agent Reinforcement Learning for Temporal Queries [18.33682005623418]
本研究は、時間的ユーザクエリに応答するMARLに対して、ポリシーレベルのコントラスト的説明を生成するアプローチを提案する。
提案手法は,PCTL論理式として時間的クエリを符号化し,そのクエリが所定のMARLポリシーの下で実現可能かどうかをチェックする。
ユーザスタディの結果から,生成した説明書はユーザパフォーマンスと満足度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:04:29Z) - GANterfactual-RL: Understanding Reinforcement Learning Agents'
Strategies through Visual Counterfactual Explanations [0.7874708385247353]
本稿では,RLエージェントの反実的説明を生成する手法を提案する。
本手法は完全にモデルに依存しないので,いくつかの計算量において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-24T15:29:43Z) - Learning How to Infer Partial MDPs for In-Context Adaptation and
Exploration [17.27164535440641]
後方サンプリングは有望なアプローチであるが、ベイズ推論と動的プログラミングが必要である。
部分モデルが環境から関連する情報を除外したとしても、良い政策につながることは明らかである。
論文 参考訳(メタデータ) (2023-02-08T18:35:24Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - What is Going on Inside Recurrent Meta Reinforcement Learning Agents? [63.58053355357644]
recurrent meta reinforcement learning (meta-rl)エージェントは「学習アルゴリズムの学習」を目的としてrecurrent neural network (rnn)を使用するエージェントである。
部分観測可能なマルコフ決定プロセス(POMDP)フレームワークを用いてメタRL問題を再構成することにより,これらのエージェントの内部動作機構を明らかにする。
論文 参考訳(メタデータ) (2021-04-29T20:34:39Z) - Plannable Approximations to MDP Homomorphisms: Equivariance under
Actions [72.30921397899684]
学習した表現に作用同値を強制する対照的な損失関数を導入する。
損失が 0 であるとき、決定論的マルコフ決定過程の準同型が存在することを証明している。
本研究では, 決定論的MDPに対して, 抽象MDPの最適方針を元のMDPに引き上げることに成功した。
論文 参考訳(メタデータ) (2020-02-27T08:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。