論文の概要: Causal Explanation for Reinforcement Learning: Quantifying State and
Temporal Importance
- arxiv url: http://arxiv.org/abs/2210.13507v1
- Date: Mon, 24 Oct 2022 18:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:36:53.192612
- Title: Causal Explanation for Reinforcement Learning: Quantifying State and
Temporal Importance
- Title(参考訳): 強化学習のための因果説明:状態と時間的重要性の定量化
- Authors: Xiaoxiao Wang, Fanyu Meng, Zhaodan Kong, Xin Chen, Xin Liu
- Abstract要約: 人間は因果レンズから世界を見るので、関連性のあるものよりも因果説明を好む。
我々は、行動における状態の因果的重要性と時間的重要性を定量化する因果的説明機構を開発する。
我々は、RL政策の説明の観点から、最先端のアソシエーション手法に対する我々のメカニズムの利点を実証する。
- 参考スコア(独自算出の注目度): 7.763943187090315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability plays an increasingly important role in machine learning.
Because reinforcement learning (RL) involves interactions between states and
actions over time, explaining an RL policy is more challenging than that of
supervised learning. Furthermore, humans view the world from causal lens and
thus prefer causal explanations over associational ones. Therefore, in this
paper, we develop a causal explanation mechanism that quantifies the causal
importance of states on actions and such importance over time. Moreover, via a
series of simulation studies including crop irrigation, Blackjack, collision
avoidance, and lunar lander, we demonstrate the advantages of our mechanism
over state-of-the-art associational methods in terms of RL policy explanation.
- Abstract(参考訳): 説明責任は機械学習においてますます重要な役割を果たす。
強化学習(RL)は、時間とともに状態と行動の間の相互作用を伴うため、RLポリシーを説明することは教師付き学習よりも難しい。
さらに、人間は因果レンズから世界を見るため、関連レンズよりも因果説明を好む。
そこで本稿では,行動における状態の因果的重要性と時間的重要性を定量化する因果的説明機構を開発する。
さらに, 農作物の灌水, ブラックジャック, 衝突回避, 月面着陸などのシミュレーション研究を通じて, RL政策の説明の観点から, 最先端の連成手法に対する我々のメカニズムの利点を実証した。
関連論文リスト
- Competition of Mechanisms: Tracing How Language Models Handle Facts and
Counterfactuals [55.23587651065376]
解釈可能性の研究は、経験的成功と大規模言語モデルの内部動作に関する科学的理解のギャップを埋めることを目的としている。
個別のメカニズムの代わりに複数のメカニズムの相互作用に焦点を当てたメカニズムの競合の定式化を提案する。
本研究は, 種々のモデル成分間の機構とその競合の痕跡を示し, 特定の機構の強度を効果的に制御する注意位置を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T17:26:51Z) - Fundamental Properties of Causal Entropy and Information Gain [0.22252684361733285]
最近の進歩は、構造因果モデル(SCM)による因果制御の定量化を可能にする
因果的エントロピーと因果的情報ゲインと名付けられた尺度は、因果性が重要な役割を果たす機械学習タスクに対する既存の情報理論的アプローチの限界に対処することを目的としている。
論文 参考訳(メタデータ) (2024-02-02T11:55:57Z) - Emergence and Causality in Complex Systems: A Survey on Causal Emergence
and Related Quantitative Studies [12.78006421209864]
因果発生理論は出現を定量化するために因果関係の尺度を用いる。
因果の出現を定量化し、データを識別する。
因果表現学習,因果モデル抽象化,世界モデルに基づく強化学習によって,因果表現の出現を識別するアーキテクチャが共有されることを強調した。
論文 参考訳(メタデータ) (2023-12-28T04:20:46Z) - Learning Causally Disentangled Representations via the Principle of
Independent Causal Mechanisms [18.318692567104378]
本稿では、因果関係の観測ラベルによって教師される因果関係の非絡み合い表現を学習するための枠組みを提案する。
この枠組みは, 極めて不整合な因果関係を生じさせ, 介入の堅牢性を向上し, 反事実発生と相容れないことを示す。
論文 参考訳(メタデータ) (2023-06-02T00:28:48Z) - Guiding Visual Question Answering with Attention Priors [76.21671164766073]
本稿では,言語・視覚的接地による注意機構の導出について述べる。
この基礎は、クエリ内の構造化言語概念を視覚オブジェクト間の参照物に接続することで導かれる。
このアルゴリズムは、注意に基づく推論モデルを調べ、関連する連想的知識を注入し、コア推論プロセスを制御する。
論文 参考訳(メタデータ) (2022-05-25T09:53:47Z) - Causality in Neural Networks -- An Extended Abstract [0.0]
因果推論は、人間が使用する主要な学習および説明ツールである。
因果性の概念を機械学習に導入することは、より良い学習と説明可能なモデルを提供するのに役立つ。
論文 参考訳(メタデータ) (2021-06-03T09:52:36Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Towards Causal Representation Learning [96.110881654479]
機械学習とグラフィカル因果関係の2つの分野が生まれ、別々に発展した。
現在、他分野の進歩の恩恵を受けるために、クロスポリン化と両方の分野への関心が高まっている。
論文 参考訳(メタデータ) (2021-02-22T15:26:57Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - Explain and Improve: LRP-Inference Fine-Tuning for Image Captioning
Models [82.3793660091354]
本稿では,注意を可視化する以外に,注意機構を付加した画像キャプションモデルの予測について分析する。
我々は,注意機構を備えた画像キャプションモデルに適したレイヤワイド関連伝搬(LRP)と勾配に基づく説明法を開発した。
論文 参考訳(メタデータ) (2020-01-04T05:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。