論文の概要: (When) Are Contrastive Explanations of Reinforcement Learning Helpful?
- arxiv url: http://arxiv.org/abs/2211.07719v1
- Date: Mon, 14 Nov 2022 19:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:47:00.503641
- Title: (When) Are Contrastive Explanations of Reinforcement Learning Helpful?
- Title(参考訳): (時期)
強化学習の対比的説明は役に立つか?
- Authors: Sanjana Narayanan, Isaac Lage, Finale Doshi-Velez
- Abstract要約: コントラストを参照する必要のない完全な説明よりも、コントラスト的な説明が望ましいかどうかを考察する。
完全な説明は、一般的に、それらが同じ方針の対照的な説明よりもサイズが同じか小さい場合、より効果的であり、より大きい場合は、悪くはない。
- 参考スコア(独自算出の注目度): 28.33037843908687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Global explanations of a reinforcement learning (RL) agent's expected
behavior can make it safer to deploy. However, such explanations are often
difficult to understand because of the complicated nature of many RL policies.
Effective human explanations are often contrastive, referencing a known
contrast (policy) to reduce redundancy. At the same time, these explanations
also require the additional effort of referencing that contrast when evaluating
an explanation. We conduct a user study to understand whether and when
contrastive explanations might be preferable to complete explanations that do
not require referencing a contrast. We find that complete explanations are
generally more effective when they are the same size or smaller than a
contrastive explanation of the same policy, and no worse when they are larger.
This suggests that contrastive explanations are not sufficient to solve the
problem of effectively explaining reinforcement learning policies, and require
additional careful study for use in this context.
- Abstract(参考訳): 強化学習(RL)エージェントの期待行動に関するグローバルな説明は、デプロイをより安全にすることができる。
しかし、そのような説明は、多くのrlポリシーの複雑な性質のため、理解が難しいことが多い。
効果的な人間の説明はしばしば対比的であり、冗長性を減らすために既知のコントラスト(政治)を参照する。
同時に、これらの説明には、説明を評価する際にコントラストを参照する追加の努力も必要となる。
我々は,コントラストを参照する必要のない完全な説明に対して,コントラスト的説明が望ましいか,いつかを理解するために,ユーザ調査を行う。
完全な説明は、一般的に、それらが同じ方針の対照的な説明よりもサイズが同じか小さい場合、より効果的であり、より大きい場合は、悪くはない。
このことは,強化学習方針を効果的に説明する問題を解決するには対照的な説明だけでは不十分であり,この文脈での使用にはさらなる注意深い研究が必要であることを示唆する。
関連論文リスト
- Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks [15.102346715690759]
説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
論文 参考訳(メタデータ) (2020-12-18T07:04:04Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - What Did You Think Would Happen? Explaining Agent Behaviour Through
Intended Outcomes [30.056732656973637]
本稿では,意図した結果の概念に基づく強化学習の新たな説明方法を提案する。
これらの説明は、エージェントがそのアクションによって達成しようとしている結果を記述している。
従来の強化学習では,この性質のポストホックな説明のための一般的な手法は不可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T12:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。