論文の概要: Contrastive Explanations for Reinforcement Learning via Embedded Self
Predictions
- arxiv url: http://arxiv.org/abs/2010.05180v2
- Date: Sun, 17 Jan 2021 08:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:32:02.776039
- Title: Contrastive Explanations for Reinforcement Learning via Embedded Self
Predictions
- Title(参考訳): 組込み自己予測による強化学習の対照的な説明
- Authors: Zhengxian Lin, Kim-Ho Lam and Alan Fern
- Abstract要約: 本研究では,学習者が他者よりも行動を好む理由を説明するための,深層強化学習アーキテクチャについて検討する。
鍵となる考え方は、期待される未来の人間の理解可能な特性を通して直接表現されるアクション値を学ぶことである。
複雑な戦略ゲームを含む3つの領域におけるケーススタディは、ESPモデルを効果的に学習し、洞察に富んだ説明を支援することができることを示している。
- 参考スコア(独自算出の注目度): 24.460079819591677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate a deep reinforcement learning (RL) architecture that supports
explaining why a learned agent prefers one action over another. The key idea is
to learn action-values that are directly represented via human-understandable
properties of expected futures. This is realized via the embedded
self-prediction (ESP)model, which learns said properties in terms of human
provided features. Action preferences can then be explained by contrasting the
future properties predicted for each action. To address cases where there are a
large number of features, we develop a novel method for computing minimal
sufficient explanations from anESP. Our case studies in three domains,
including a complex strategy game, show that ESP models can be effectively
learned and support insightful explanations.
- Abstract(参考訳): 本稿では,学習者が他者よりも行動を好む理由を説明するための,深層強化学習(RL)アーキテクチャについて検討する。
鍵となるアイデアは、期待される未来の人間の理解可能な特性を通じて直接表現されるアクション値を学ぶことである。
これは、人間が提供する特徴の観点からその特性を学習する組み込み自己予測(ESP)モデルによって実現される。
アクションの好みは、アクション毎に予測される将来のプロパティと対比することで説明できる。
多数の特徴があるケースに対処するため、我々は anESP から必要最小限の説明を計算するための新しい方法を開発した。
複雑な戦略ゲームを含む3つの領域におけるケーススタディは、ESPモデルを効果的に学習し、洞察に富んだ説明を支援することができることを示している。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Learning by Self-Explaining [23.420673675343266]
我々は、自己説明による学習(LSX)と呼ばれる画像分類の文脈において、新しいワークフローを導入する。
LSXは、自己修復型AIと人間誘導型説明機械学習の側面を利用する。
本結果は,自己説明による学習による改善を,いくつかのレベルで示すものである。
論文 参考訳(メタデータ) (2023-09-15T13:41:57Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - COMPS: Conceptual Minimal Pair Sentences for testing Property Knowledge
and Inheritance in Pre-trained Language Models [8.08493736237816]
そこで本論文では,PLM(pre-trained language model)とPLM(pre-trained language model)を共同でテストする,最小対文の集合であるComposについて述べる。
COMPS 上の 22 個の異なる PLM の解析は、それらが自明に異なるとき、その性質に基づいて容易に概念を区別できることを明らかにする。
PLMはプロパティ継承と大きく整合した動作を示すことができるが、注意をそらす情報の存在下では失敗する。
論文 参考訳(メタデータ) (2022-10-05T00:04:18Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - What Did You Think Would Happen? Explaining Agent Behaviour Through
Intended Outcomes [30.056732656973637]
本稿では,意図した結果の概念に基づく強化学習の新たな説明方法を提案する。
これらの説明は、エージェントがそのアクションによって達成しようとしている結果を記述している。
従来の強化学習では,この性質のポストホックな説明のための一般的な手法は不可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T12:05:08Z) - Learning to Represent Action Values as a Hypergraph on the Action
Vertices [17.811355496708728]
行動値推定は強化学習法(RL)の重要な要素である。
多次元のアクション空間の構造を活用することが、アクションの優れた表現を学ぶための鍵となる要素であると推測する。
Atari 2600 ゲームや、離散化物理制御ベンチマークなど、無数の領域に対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-10-28T00:19:13Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。