論文の概要: NeuroView: Explainable Deep Network Decision Making
- arxiv url: http://arxiv.org/abs/2110.07778v1
- Date: Fri, 15 Oct 2021 00:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 05:03:53.148853
- Title: NeuroView: Explainable Deep Network Decision Making
- Title(参考訳): NeuroView: 説明可能なディープネットワーク決定
- Authors: CJ Barberan, Randall Balestriero, Richard G. Baraniuk
- Abstract要約: NeuroViewはDNアーキテクチャの新しいファミリーであり、設計によって解釈および説明可能である。
得られたアーキテクチャは、各ユニットの状態と分類決定との間の直接的な因果関係を確立する。
我々は、標準データセットと分類タスクに基づいてNeuroViewを評価し、そのユニット/クラスマッピングが意思決定プロセスの理解にどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 32.68754537814658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNs) provide superhuman performance in numerous
computer vision tasks, yet it remains unclear exactly which of a DN's units
contribute to a particular decision. NeuroView is a new family of DN
architectures that are interpretable/explainable by design. Each member of the
family is derived from a standard DN architecture by vector quantizing the unit
output values and feeding them into a global linear classifier. The resulting
architecture establishes a direct, causal link between the state of each unit
and the classification decision. We validate NeuroView on standard datasets and
classification tasks to show that how its unit/class mapping aids in
understanding the decision-making process.
- Abstract(参考訳): ディープニューラルネットワーク(DN)は、多数のコンピュータビジョンタスクにおいて超人的なパフォーマンスを提供するが、DNのどのユニットが特定の決定に寄与しているかは正確には分かっていない。
NeuroViewはDNアーキテクチャの新しいファミリーであり、設計によって解釈および説明可能である。
ファミリーの各メンバーは、単位出力値をベクトル化して大域線形分類器に供給することで、標準DNアーキテクチャから派生する。
得られたアーキテクチャは、各ユニットの状態と分類決定との間の直接的な因果関係を確立する。
標準データセットと分類タスクでneuroviewを検証することで、そのユニット/クラスマッピングが意思決定プロセスを理解する上でどのように役立つかを示す。
関連論文リスト
- Exploring Learned Representations of Neural Networks with Principal
Component Analysis [1.0923877073891446]
ある層では、高い精度の分類には中間的特徴空間分散の20%しか必要としない。
本研究は神経崩壊と相関し, 中間神経崩壊の関連現象の部分的証拠を提供する。
論文 参考訳(メタデータ) (2023-09-27T00:18:25Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - NeuroView-RNN: It's About Time [25.668977252138905]
RNNにおける重要な解釈可能性の問題は、各時間毎の隠れた状態が意思決定プロセスにどのように貢献するかが明確でないことである。
本稿では,新しいRNNアーキテクチャのファミリとしてNeuroView-RNNを提案する。
我々は,さまざまな時系列データセットを用いて評価することで,NeuroView-RNNの利点を実証する。
論文 参考訳(メタデータ) (2022-02-23T22:29:11Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - Explainability Tools Enabling Deep Learning in Future In-Situ Real-Time
Planetary Explorations [58.720142291102135]
ディープラーニング(DL)は、効果的な機械学習とコンピュータビジョン技術であることが証明されている。
ディープニューラルネットワーク(DNN)アーキテクチャのほとんどは複雑すぎて'ブラックボックス'と見なされている。
本稿では,各ニューロンの出力クラスへの属性を記述するために,積分勾配を用いた。
DNNのブラックボックスを開くための説明可能性ツールセット(ET)を提供するので、分類へのニューロンの個々の貢献をランク付けし視覚化することができる。
論文 参考訳(メタデータ) (2022-01-15T07:10:00Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Structure and Performance of Fully Connected Neural Networks: Emerging
Complex Network Properties [0.8484871864277639]
完全連結ニューラルネットワークの構造と性能を解析するために,複素ネットワーク(CN)技術を提案する。
4万のモデルとそれぞれのCNプロパティでデータセットを構築します。
本研究は,完全連結ニューラルネットワークの性能において,CN特性が重要な役割を担っていることを示唆する。
論文 参考訳(メタデータ) (2021-07-29T14:53:52Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Neural Anisotropy Directions [63.627760598441796]
我々は、アーキテクチャの方向性誘導バイアスをカプセル化するベクトルとして、神経異方性方向(NAD)を定義する。
CIFAR-10データセットでは、NADはCNNが異なるクラス間で識別するために使用する特徴を特徴付ける。
論文 参考訳(メタデータ) (2020-06-17T08:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。