論文の概要: Explaining a Deep Reinforcement Learning Docking Agent Using Linear
Model Trees with User Adapted Visualization
- arxiv url: http://arxiv.org/abs/2203.00368v1
- Date: Tue, 1 Mar 2022 11:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:42:21.126325
- Title: Explaining a Deep Reinforcement Learning Docking Agent Using Linear
Model Trees with User Adapted Visualization
- Title(参考訳): 線形モデル木を用いた深層強化学習ドッキングエージェントのユーザ適応可視化による説明
- Authors: Vilde B. Gj{\ae}rum, Inga Str\"umke, Ole Andreas Alsos, Anastasios M.
Lekkas
- Abstract要約: リニアモデルツリー(LMT)は、シミュレーション環境で自律表面容器(ASV)を制御するディープニューラルネットワーク(DNN)を近似するために使用される。
モデルがどのように理解されるかは、説明そのものだけでなく、その説明の受信者に対してどのように表現され、適応されるかにも依存する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) can be useful within the marine robotics field,
but their utility value is restricted by their black-box nature. Explainable
artificial intelligence methods attempt to understand how such black-boxes make
their decisions. In this work, linear model trees (LMTs) are used to
approximate the DNN controlling an autonomous surface vessel (ASV) in a
simulated environment and then run in parallel with the DNN to give
explanations in the form of feature attributions in real-time. How well a model
can be understood depends not only on the explanation itself, but also on how
well it is presented and adapted to the receiver of said explanation. Different
end-users may need both different types of explanations, as well as different
representations of these. The main contributions of this work are (1)
significantly improving both the accuracy and the build time of a greedy
approach for building LMTs by introducing ordering of features in the splitting
of the tree, (2) giving an overview of the characteristics of the
seafarer/operator and the developer as two different end-users of the agent and
receiver of the explanations, and (3) suggesting a visualization of the docking
agent, the environment, and the feature attributions given by the LMT for when
the developer is the end-user of the system, and another visualization for when
the seafarer or operator is the end-user, based on their different
characteristics.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は海洋ロボット分野において有用であるが、その有用性はブラックボックスの性質によって制限される。
説明可能な人工知能手法は、このようなブラックボックスがどのように意思決定を行うかを理解しようとする。
本研究では, 線形モデル木 (LMT) を用いて, シミュレーション環境下での自律表面容器 (ASV) を制御するDNNを近似し, DNNと並列に実行し, リアルタイムで特徴属性の形で説明を行う。
モデルがどの程度よく理解できるかは、説明そのものだけでなく、その説明の受信者にどのように提示され、適応されるかにも依存します。
異なるエンドユーザは、異なるタイプの説明と異なる表現の両方を必要とするかもしれない。
The main contributions of this work are (1) significantly improving both the accuracy and the build time of a greedy approach for building LMTs by introducing ordering of features in the splitting of the tree, (2) giving an overview of the characteristics of the seafarer/operator and the developer as two different end-users of the agent and receiver of the explanations, and (3) suggesting a visualization of the docking agent, the environment, and the feature attributions given by the LMT for when the developer is the end-user of the system, and another visualization for when the seafarer or operator is the end-user, based on their different characteristics.
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models [4.452019519213712]
本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
論文 参考訳(メタデータ) (2022-11-19T21:42:55Z) - Perception Visualization: Seeing Through the Eyes of a DNN [5.9557391359320375]
我々は、Grad-CAMのような現在の説明方法と本質的に異なる、新しい説明形式を開発する。
知覚可視化は、DNNが入力画像で知覚するものの視覚的表現を提供する。
ユーザスタディの結果から,認識の可視化が可能になった場合,人間がシステムの判断をよりよく理解し,予測できることが示される。
論文 参考訳(メタデータ) (2022-04-21T07:18:55Z) - Approximating a deep reinforcement learning docking agent using linear
model trees [0.0]
リニアモデルツリー(LMT)は、ドッキング操作を行う5つの制御入力を持つ自律表面車両のDNNポリシーを近似する。
LMTは透過的であり、入力特徴の特定の値と直接出力(制御アクション)を関連付けることができる。
シミュレーションでは、不透明なDNNポリシーが車両を制御し、LMTは並列に走行し、特徴属性の形で説明を提供する。
論文 参考訳(メタデータ) (2022-03-01T11:32:07Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。