論文の概要: Locality Guided Neural Networks for Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2007.06131v1
- Date: Sun, 12 Jul 2020 23:45:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:11:51.648623
- Title: Locality Guided Neural Networks for Explainable Artificial Intelligence
- Title(参考訳): 説明可能な人工知能のための局所性誘導ニューラルネットワーク
- Authors: Randy Tan, Naimul Khan, and Ling Guan
- Abstract要約: LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
- 参考スコア(独自算出の注目度): 12.435539489388708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In current deep network architectures, deeper layers in networks tend to
contain hundreds of independent neurons which makes it hard for humans to
understand how they interact with each other. By organizing the neurons by
correlation, humans can observe how clusters of neighbouring neurons interact
with each other. In this paper, we propose a novel algorithm for back
propagation, called Locality Guided Neural Network(LGNN) for training networks
that preserves locality between neighbouring neurons within each layer of a
deep network. Heavily motivated by Self-Organizing Map (SOM), the goal is to
enforce a local topology on each layer of a deep network such that neighbouring
neurons are highly correlated with each other. This method contributes to the
domain of Explainable Artificial Intelligence (XAI), which aims to alleviate
the black-box nature of current AI methods and make them understandable by
humans. Our method aims to achieve XAI in deep learning without changing the
structure of current models nor requiring any post processing. This paper
focuses on Convolutional Neural Networks (CNNs), but can theoretically be
applied to any type of deep learning architecture. In our experiments, we train
various VGG and Wide ResNet (WRN) networks for image classification on
CIFAR100. In depth analyses presenting both qualitative and quantitative
results demonstrate that our method is capable of enforcing a topology on each
layer while achieving a small increase in classification accuracy
- Abstract(参考訳): 現在のディープネットワークアーキテクチャでは、ネットワークの深い層は数百の独立したニューロンを含む傾向があるため、人間が互いにどう相互作用するかを理解するのが難しくなっている。
ニューロンを相互に関連づけることで、近隣のニューロンのクラスターがどのように相互作用するかを観察することができる。
本稿では,ディープネットワークの各層における隣接ニューロン間の局所性を保持する学習ネットワークのための,局所性誘導ニューラルネットワーク(lgnn)と呼ばれる新しいバック伝播アルゴリズムを提案する。
自己組織化マップ (SOM) に強く動機づけられた目標は、深層ネットワークの各層に局所的なトポロジーを強制することであり、近隣のニューロンは互いに高い相関関係にある。
この方法は、現在のAIメソッドのブラックボックスの性質を緩和し、人間によって理解できるようにすることを目的としている、説明可能な人工知能(XAI)の領域に寄与する。
提案手法は,現行モデルの構造を変更したり,ポスト処理を必要とせずに,深層学習におけるXAIの実現を目的としている。
本稿では、畳み込みニューラルネットワーク(CNN)に焦点を当てるが、理論的にはあらゆる種類のディープラーニングアーキテクチャに適用できる。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
定性的および定量的な結果を示す奥行き解析において,本手法は分類精度を小さく向上しつつ,各層にトポロジーを適用できることを実証する。
関連論文リスト
- Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Half-Space Feature Learning in Neural Networks [2.3249139042158853]
現在、ニューラルネットワークの特徴学習には2つの極端な視点がある。
どちらの解釈も、新しい観点からは正しいとは考えにくい。
私たちはこの代替解釈を使って、Deep Linearly Gated Network (DLGN)と呼ばれるモデルを動かす。
論文 参考訳(メタデータ) (2024-04-05T12:03:19Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Graph Metanetworks for Processing Diverse Neural Architectures [33.686728709734105]
Graph Metanetworks(GMN)は、競合するメソッドが苦労するニューラルネットワークに一般化する。
GMNは,入力ニューラルネットワーク関数を残したパラメータ置換対称性と等価であることを示す。
論文 参考訳(メタデータ) (2023-12-07T18:21:52Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。