論文の概要: A Survey on Interpretable Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.13112v1
- Date: Fri, 24 Dec 2021 17:26:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:42:41.130075
- Title: A Survey on Interpretable Reinforcement Learning
- Title(参考訳): 解釈型強化学習に関する調査研究
- Authors: Claire Glanois, Paul Weng, Matthieu Zimmer, Dong Li, Tianpei Yang,
Jianye Hao and Wulong Liu
- Abstract要約: 本調査は、強化学習(RL)における高い解釈可能性を実現するための様々なアプローチの概要を提供する。
我々は、解釈可能性(モデルの特性として)と説明可能性(プロキシの介入によるポストホック操作として)を区別する。
我々は、解釈可能なRLは、解釈可能な入力、解釈可能な(遷移/回帰)モデル、解釈可能な意思決定など、異なる側面を受け入れることができると主張している。
- 参考スコア(独自算出の注目度): 28.869513255570077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although deep reinforcement learning has become a promising machine learning
approach for sequential decision-making problems, it is still not mature enough
for high-stake domains such as autonomous driving or medical applications. In
such contexts, a learned policy needs for instance to be interpretable, so that
it can be inspected before any deployment (e.g., for safety and verifiability
reasons). This survey provides an overview of various approaches to achieve
higher interpretability in reinforcement learning (RL). To that aim, we
distinguish interpretability (as a property of a model) and explainability (as
a post-hoc operation, with the intervention of a proxy) and discuss them in the
context of RL with an emphasis on the former notion. In particular, we argue
that interpretable RL may embrace different facets: interpretable inputs,
interpretable (transition/reward) models, and interpretable decision-making.
Based on this scheme, we summarize and analyze recent work related to
interpretable RL with an emphasis on papers published in the past 10 years. We
also discuss briefly some related research areas and point to some potential
promising research directions.
- Abstract(参考訳): 深層強化学習は、逐次的な意思決定問題に対して有望な機械学習アプローチとなっているが、自律運転や医療アプリケーションといった高度な領域では十分に成熟していない。
そのような状況下では、例えば、学習されたポリシーは解釈可能で、配置前に検査される(例えば、安全性と検証可能性のために)必要がある。
本調査は強化学習(RL)における高い解釈可能性を実現するための様々なアプローチの概要を提供する。
その目的のために、解釈可能性(モデルの特性として)と説明可能性(プロキシの介入によるポストホック操作として)を区別し、それらをrlの文脈で以前の概念を強調して議論する。
特に、解釈可能なRLは、解釈可能な入力、解釈可能な(遷移/回帰)モデル、解釈可能な意思決定など、異なる側面を受け入れることができると論じる。
このスキームに基づいて,過去10年間の論文を中心に,解釈可能なRLに関する最近の研究の要約と分析を行った。
また,いくつかの研究分野を簡潔に議論し,有望な研究の方向性を指摘する。
関連論文リスト
- A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Towards a Research Community in Interpretable Reinforcement Learning: the InterpPol Workshop [7.630967411418269]
本質的に説明可能な強化学習の追求を受け入れることは、重要な疑問を提起する。
透明性が不可欠であるドメインの外で、説明可能なエージェントと解釈可能なエージェントを開発するべきか?
ユーザスタディなしで、ポリシーの解釈可能性をどのように厳格に定義し、測定するか。
論文 参考訳(メタデータ) (2024-04-16T20:53:17Z) - The Mystery of In-Context Learning: A Comprehensive Survey on Interpretation and Analysis [20.142154624977582]
In-context Learning (ICL) 機能により、大規模な言語モデルが実演例を通じて習熟できる。
本稿では,文脈内学習の解釈と分析について,徹底的な調査を行う。
我々は,本研究が,文脈内学習の解釈のさらなる探求の基盤となると信じている。
論文 参考訳(メタデータ) (2023-11-01T02:40:42Z) - A Survey on Interpretable Cross-modal Reasoning [64.37362731950843]
マルチメディア分析から医療診断に至るまで、クロスモーダル推論(CMR)が重要な分野として浮上している。
この調査は、解釈可能なクロスモーダル推論(I-CMR)の領域を掘り下げる
本調査では,I-CMRの3段階分類法について概説する。
論文 参考訳(メタデータ) (2023-09-05T05:06:48Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Interpretability and Explainability: A Machine Learning Zoo Mini-tour [4.56877715768796]
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
論文 参考訳(メタデータ) (2020-12-03T10:11:52Z) - An Investigation of Language Model Interpretability via Sentence Editing [5.492504126672887]
我々は、事前学習言語モデル(PLM)の解釈可能性をテストするテストベッドとして、文編集データセットを再使用した。
これにより、PLMの解釈可能性に関する一連の質問に対して、系統的な調査を行うことができる。
この調査は、例えば、一般的な理解とは対照的に、注意重みが人間の合理性とよく相関しているという新たな洞察を生み出す。
論文 参考訳(メタデータ) (2020-11-28T00:46:43Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。