論文の概要: Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System
- arxiv url: http://arxiv.org/abs/2008.01508v2
- Date: Thu, 24 Dec 2020 13:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:12:53.292778
- Title: Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System
- Title(参考訳): 動的マルチエージェントシステムにおける強化学習モデルの説明
- Authors: Xinzhi Wang, Huao Li, Hui Zhang, Michael Lewis, Katia Sycara
- Abstract要約: 本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
一般的な状況に言語説明を生成する暗黙の論理を拡張するための学習モデルを提案する。
その結果,両モデルが生成した言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
- 参考スコア(独自算出の注目度): 3.754171077237216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been increasing interest in transparency and
interpretability in Deep Reinforcement Learning (DRL) systems. Verbal
explanations, as the most natural way of communication in our daily life,
deserve more attention, since they allow users to gain a better understanding
of the system which ultimately could lead to a high level of trust and smooth
collaboration. This paper reports a novel work in generating verbal
explanations for DRL behaviors agent. A rule-based model is designed to
construct explanations using a series of rules which are predefined with prior
knowledge. A learning model is then proposed to expand the implicit logic of
generating verbal explanation to general situations by employing rule-based
explanations as training data. The learning model is shown to have better
flexibility and generalizability than the static rule-based model. The
performance of both models is evaluated quantitatively through objective
metrics. The results show that verbal explanation generated by both models
improve subjective satisfaction of users towards the interpretability of DRL
systems. Additionally, seven variants of the learning model are designed to
illustrate the contribution of input channels, attention mechanism, and
proposed encoder in improving the quality of verbal explanation.
- Abstract(参考訳): 近年,Deep Reinforcement Learning(DRL)システムにおける透明性と解釈可能性への関心が高まっている。
言語による説明は、私たちの日常生活におけるコミュニケーションの最も自然な方法として、ユーザーがシステムをよりよく理解することができ、最終的には高いレベルの信頼とスムーズなコラボレーションにつながるので、もっと注目に値する。
本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
ルールベースのモデルは、事前知識で事前に定義された一連のルールを使用して説明を構築するように設計されている。
次に, 規則に基づく説明を学習データとして活用し, 言語説明生成の暗黙論理を一般的な状況に拡張する学習モデルを提案する。
学習モデルは静的ルールベースモデルよりも柔軟性と一般化性が高いことが示されている。
両モデルの性能は客観的指標によって定量的に評価される。
その結果,両モデルによる言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
さらに、学習モデルの7つの変種は、言語説明の質を向上させるための入力チャネル、注意機構、および提案エンコーダの寄与を説明するように設計されている。
関連論文リスト
- Interpret the Internal States of Recommendation Model with Sparse Autoencoder [26.021277330699963]
RecSAEは、レコメンデーションモデルの内部状態を解釈するための、自動で一般化可能な探索手法である。
我々は、推薦モデルの内部アクティベーションを再構築するために、疎度制約付きオートエンコーダを訓練する。
我々は、潜在活性化と入力項目列の関係に基づき、概念辞書の構築を自動化した。
論文 参考訳(メタデータ) (2024-11-09T08:22:31Z) - Semifactual Explanations for Reinforcement Learning [1.5320737596132754]
強化学習(Reinforcement Learning、RL)は、エージェントが試行錯誤を通じて環境から学習する学習パラダイムである。
ディープ強化学習(DRL)アルゴリズムは、ニューラルネットワークを使用してエージェントのポリシーを表現し、その決定を解釈しにくくする。
DRLエージェントの動作を説明するには,ユーザの信頼を向上し,エンゲージメントを高め,実際のタスクとの統合を容易にする必要がある。
論文 参考訳(メタデータ) (2024-09-09T08:37:47Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。