論文の概要: Interpreting Neural Policies with Disentangled Tree Representations
- arxiv url: http://arxiv.org/abs/2210.06650v1
- Date: Thu, 13 Oct 2022 01:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 13:56:34.010662
- Title: Interpreting Neural Policies with Disentangled Tree Representations
- Title(参考訳): 乱れ木表現を用いたニューラルポリシの解釈
- Authors: Tsun-Hsuan Wang, Wei Xiao, Tim Seyde, Ramin Hasani, Daniela Rus
- Abstract要約: 我々は,木表現をコンパクトなポリシーから抽出するアルゴリズムを開発した。
タスク制御の一連のエンドツーエンド学習において,複数種類のコンパクトネットワークによるアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 47.59790402983858
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Compact neural networks used in policy learning and closed-loop end-to-end
control learn representations from data that encapsulate agent dynamics and
potentially the agent-environment's factors of variation. A formal and
quantitative understanding and interpretation of these explanatory factors in
neural representations is difficult to achieve due to the complex and
intertwined correspondence of neural activities with emergent behaviors. In
this paper, we design a new algorithm that programmatically extracts tree
representations from compact neural policies, in the form of a set of logic
programs grounded by the world state. To assess how well networks uncover the
dynamics of the task and their factors of variation, we introduce
interpretability metrics that measure the disentanglement of learned neural
dynamics from a concentration of decisions, mutual information, and modularity
perspectives. Moreover, our method allows us to quantify how accurate the
extracted decision paths (explanations) are and computes cross-neuron logic
conflict. We demonstrate the effectiveness of our approach with several types
of compact network architectures on a series of end-to-end learning to control
tasks.
- Abstract(参考訳): ポリシー学習やクローズドループのエンドツーエンド制御で使用されるコンパクトニューラルネットワークは、エージェントのダイナミクスをカプセル化したデータから表現を学習する。
神経表現におけるこれらの説明的要因の形式的かつ定量的な理解と解釈は、神経活動と創発的行動との複雑な相互対応のために達成が難しい。
本論文では,木表現をコンパクトなニューラルポリシーからプログラム的に抽出する新しいアルゴリズムを,世界状態によって基礎付けられた論理プログラムの集合として設計する。
ネットワークがタスクのダイナミクスとその変動要因をいかによく把握するかを評価するために,学習したニューラルネットワークの絡み合いを,決定の集中,相互情報,モジュール性の観点から測定する解釈可能性指標を導入する。
さらに,抽出された決定パス(説明)がどの程度正確であるかを定量化し,クロスニューロン論理のコンフリクトを計算する。
タスク制御の一連のエンドツーエンド学習において,複数種類のコンパクトネットワークアーキテクチャによるアプローチの有効性を示す。
関連論文リスト
- Trustworthy Conceptual Explanations for Neural Networks in Robot Decision-Making [9.002659157558645]
本稿では,人間に解釈可能な高レベル概念に基づく,信頼性の高い説明可能なロボット工学手法を提案する。
提案手法は、ニューラルネットワークのアクティベーションと人間の解釈可能なビジュアライゼーションをマッチングすることにより、関連する不確実性スコアを説明できる。
論文 参考訳(メタデータ) (2024-09-16T21:11:12Z) - Mechanistic Interpretability for AI Safety -- A Review [28.427951836334188]
本稿では,機械的解釈可能性について概説する。
機械的解釈性は、AIシステムがより強力で精査されるにつれて、破滅的な結果を防ぐのに役立つ。
論文 参考訳(メタデータ) (2024-04-22T11:01:51Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - An Interactive Explanatory AI System for Industrial Quality Control [0.8889304968879161]
我々は,ループ間対話型アプローチに向けて,欠陥検出タスクを拡張することを目的としている。
本稿では,産業品質管理環境における分類のための対話型支援システムを提案する。
論文 参考訳(メタデータ) (2022-03-17T09:04:46Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Axiom Learning and Belief Tracing for Transparent Decision Making in
Robotics [8.566457170664926]
ロボットがその決定や信念の説明を提供する能力は、人間との効果的なコラボレーションを促進する。
我々のアーキテクチャは、非単調な論理的推論、ディープラーニング、決定木帰納の相補的な強みを兼ね備えています。
推論と学習の間、このアーキテクチャにより、ロボットはその決定、信念、仮説的行動の結果について、オンデマンドでリレーショナルな記述を提供することができる。
論文 参考訳(メタデータ) (2020-10-20T22:09:17Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。