論文の概要: TripleTree: A Versatile Interpretable Representation of Black Box Agents
and their Environments
- arxiv url: http://arxiv.org/abs/2009.04743v2
- Date: Mon, 21 Sep 2020 16:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:26:33.517840
- Title: TripleTree: A Versatile Interpretable Representation of Black Box Agents
and their Environments
- Title(参考訳): tripletree:ブラックボックスエージェントとその環境の多彩な解釈可能な表現
- Authors: Tom Bewley, Jonathan Lawry
- Abstract要約: 本稿では,状態空間を凸領域に識別する一般理解に向けて,多目的な第一歩を提案する。
我々は、CART決定木アルゴリズムの新しい変種を用いて、そのような表現を作成する。
予測,可視化,ルールに基づく説明を通じて,ブラックボックスエージェントの実践的理解を促進する方法を示す。
- 参考スコア(独自算出の注目度): 9.822870889029113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In explainable artificial intelligence, there is increasing interest in
understanding the behaviour of autonomous agents to build trust and validate
performance. Modern agent architectures, such as those trained by deep
reinforcement learning, are currently so lacking in interpretable structure as
to effectively be black boxes, but insights may still be gained from an
external, behaviourist perspective. Inspired by conceptual spaces theory, we
suggest that a versatile first step towards general understanding is to
discretise the state space into convex regions, jointly capturing similarities
over the agent's action, value function and temporal dynamics within a dataset
of observations. We create such a representation using a novel variant of the
CART decision tree algorithm, and demonstrate how it facilitates practical
understanding of black box agents through prediction, visualisation and
rule-based explanation.
- Abstract(参考訳): 説明可能な人工知能では、自律エージェントの行動を理解して信頼を構築し、パフォーマンスを検証することに関心が高まっている。
深層強化学習などの現代のエージェントアーキテクチャは、ブラックボックスとして効果的に機能するように解釈可能な構造を欠いているが、それでも外的、行動主義的な観点から洞察を得ることができる。
概念空間理論に着想を得て, 一般理解への第一歩として, 状態空間を凸領域に分割し, 観測データセット内のエージェントの作用, 値関数, 時間力学の類似性を共同で捉えることを提案する。
このような表現をcart decision treeアルゴリズムの新たな変種を用いて作成し,予測,視覚化,規則に基づく説明を通じてブラックボックスエージェントの実用的理解を促進する方法を示す。
関連論文リスト
- Disentangling Representations through Multi-task Learning [0.0]
分類タスクを最適に解決するエージェントにおいて,不整合表現の出現を保証する実験および理論的結果を提供する。
マルチタスク分類を訓練したRNNにおいて,これらの予測を実験的に検証した。
私たちは、トランスフォーマーが特に、そのユニークな世界理解能力を説明するような、無関係な表現に向いていることに気付きました。
論文 参考訳(メタデータ) (2024-07-15T21:32:58Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Learning Interpretable Policies in Hindsight-Observable POMDPs through
Partially Supervised Reinforcement Learning [57.67629402360924]
本稿では,PSRL(Partially Supervised Reinforcement Learning)フレームワークを紹介する。
PSRLの中心は、教師なし学習と教師なし学習の融合である。
PSRLは、保存中のモデル解釈可能性を高め、従来の手法で設定された性能ベンチマークよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-14T16:23:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Uncovering Unique Concept Vectors through Latent Space Decomposition [0.0]
概念に基づく説明は、特徴帰属推定よりも解釈可能な優れたアプローチとして現れてきた。
本稿では,訓練中に深層モデルから学んだ概念を自動的に発見するポストホックな教師なし手法を提案する。
実験の結果、我々の概念の大部分は、人間にとって容易に理解でき、一貫性を示し、目の前の課題に関連があることが判明した。
論文 参考訳(メタデータ) (2023-07-13T17:21:54Z) - (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Comprehensibility [25.542848590851758]
アンテホック解釈能力は、医療などの高度な領域において、説明可能な人工知能の聖杯となっている。
構造がドメイン固有の制約に従属する予測モデルや、本質的に透明なモデルを指すこともある。
私たちはこの概念を解き放ち、高い領域にまたがる安全な採用に必要なものをよりよく理解します。
論文 参考訳(メタデータ) (2023-06-04T09:34:41Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Probing Emergent Semantics in Predictive Agents via Question Answering [29.123837711842995]
近年の研究では、予測モデリングがエージェントに周囲の知識を豊富に与え、複雑な環境での行動能力を向上させる方法が示されている。
本稿では,そのようなエージェントがモデルを開発する表現をデコードし,理解するための一般的なパラダイムとして,質問応答を提案する。
質問応答デコーダからエージェントへの勾配をバックプロパゲートすることなく、それらの内部状態表現を合成的(英語)質問で探索する。
論文 参考訳(メタデータ) (2020-06-01T15:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。