論文の概要: Detecting Modularity in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2110.08058v1
- Date: Wed, 13 Oct 2021 20:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 13:21:14.682242
- Title: Detecting Modularity in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおけるモジュラリティ検出
- Authors: Shlomi Hod, Stephen Casper, Daniel Filan, Cody Wild, Andrew Critch,
Stuart Russell
- Abstract要約: ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
- 参考スコア(独自算出の注目度): 8.967870619902211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A neural network is modular to the extent that parts of its computational
graph (i.e. structure) can be represented as performing some comprehensible
subtask relevant to the overall task (i.e. functionality). Are modern deep
neural networks modular? How can this be quantified? In this paper, we consider
the problem of assessing the modularity exhibited by a partitioning of a
network's neurons. We propose two proxies for this: importance, which reflects
how crucial sets of neurons are to network performance; and coherence, which
reflects how consistently their neurons associate with features of the inputs.
To measure these proxies, we develop a set of statistical methods based on
techniques conventionally used to interpret individual neurons. We apply the
proxies to partitionings generated by spectrally clustering a graph
representation of the network's neurons with edges determined either by network
weights or correlations of activations. We show that these partitionings, even
ones based only on weights (i.e. strictly from non-runtime analysis), reveal
groups of neurons that are important and coherent. These results suggest that
graph-based partitioning can reveal modularity and help us understand how deep
neural networks function.
- Abstract(参考訳): ニューラルネットワークは、その計算グラフ(すなわち構造)の一部が、全体的なタスク(すなわち機能)に関連する理解可能なサブタスクを実行するものとして表現できる程度にモジュラーである。
現代のディープニューラルネットワークはモジュール化されているか?
どうやって定量化できるのか?
本稿では,ネットワークのニューロンの分割によって表されるモジュール性を評価する問題を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらのプロキシを測定するために,従来の個々のニューロンの解釈技術に基づく統計手法を開発した。
ネットワークの重み付けやアクティベーションの相関によって決定されるエッジを用いて、ネットワークニューロンのグラフ表現をスペクトル的にクラスタリングして生成されたパーティショニングにプロキシを適用する。
これらの分割は、重みのみに基づくもの(すなわち、非ランタイム分析による厳密に)であっても、重要かつ一貫性のあるニューロン群を明らかにする。
これらの結果は、グラフベースのパーティショニングがモジュラリティを明らかにし、ディープニューラルネットワークがどのように機能するかを理解するのに役立つことを示唆している。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Identifying Interpretable Visual Features in Artificial and Biological
Neural Systems [3.604033202771937]
ニューラルネットワークの単一ニューロンはしばしば、個々の直感的に意味のある特徴を表すものとして解釈される。
多くのニューロンは$textitmixed selectivity$、すなわち複数の無関係な特徴を示す。
本稿では、視覚的解釈可能性の定量化と、ネットワークアクティベーション空間における意味のある方向を見つけるためのアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-17T17:41:28Z) - Neural Networks are Decision Trees [0.0]
本稿では, 線形活性化関数を持つ任意のニューラルネットワークが決定木として表現可能であることを示す。
表現は等価であり近似ではないため、ニューラルネットワークの精度はそのままに保たれる。
論文 参考訳(メタデータ) (2022-10-11T06:49:51Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。