論文の概要: The Representation Theory of Neural Networks
- arxiv url: http://arxiv.org/abs/2007.12213v2
- Date: Mon, 22 Mar 2021 19:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:36:45.622014
- Title: The Representation Theory of Neural Networks
- Title(参考訳): ニューラルネットワークの表現理論
- Authors: Marco Antonio Armenta and Pierre-Marc Jodoin
- Abstract要約: ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
- 参考スコア(独自算出の注目度): 7.724617675868718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we show that neural networks can be represented via the
mathematical theory of quiver representations. More specifically, we prove that
a neural network is a quiver representation with activation functions, a
mathematical object that we represent using a network quiver. Also, we show
that network quivers gently adapt to common neural network concepts such as
fully-connected layers, convolution operations, residual connections, batch
normalization, pooling operations and even randomly wired neural networks. We
show that this mathematical representation is by no means an approximation of
what neural networks are as it exactly matches reality. This interpretation is
algebraic and can be studied with algebraic methods. We also provide a quiver
representation model to understand how a neural network creates representations
from the data. We show that a neural network saves the data as quiver
representations, and maps it to a geometrical space called the moduli space,
which is given in terms of the underlying oriented graph of the network, i.e.,
its quiver. This results as a consequence of our defined objects and of
understanding how the neural network computes a prediction in a combinatorial
and algebraic way. Overall, representing neural networks through the quiver
representation theory leads to 9 consequences and 4 inquiries for future
research that we believe are of great interest to better understand what neural
networks are and how they work.
- Abstract(参考訳): 本研究では,ニューラルネットワークがクイバー表現の数学的理論を通じて表現できることを示す。
より具体的には、ニューラルネットワークはアクティベーション関数を持つクイバー表現であり、ネットワーククイバーを用いて表現する数学的対象であることを示す。
また,完全連結層,畳み込み操作,残留接続,バッチ正規化,プーリング操作,さらにはランダムに繋がったニューラルネットワークといった一般的なニューラルネットワークの概念に,ネットワークのクイバーが緩やかに適応することを示した。
この数学的表現は、ニューラルネットワークが現実と正確に一致していることの近似ではないことを示す。
この解釈は代数的であり、代数的手法で研究することができる。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
ニューラルネットワークは、データをクイバー表現として保存し、そのクイバーの基盤となる配向グラフ(すなわち、そのクイバー)で与えられるモジュラー空間と呼ばれる幾何学的空間にマッピングする。
この結果は、定義したオブジェクトの結果であり、ニューラルネットワークが組合せ的および代数的方法で予測をどのように計算するかを理解する結果となります。
全体として、クイバー表現理論によるニューラルネットワークの表現は、9つの結果と4つの将来の研究に対する4つの疑問をもたらす。
関連論文リスト
- Closed-Form Interpretation of Neural Network Classifiers with Symbolic
Regression Gradients [0.7832189413179361]
ニューラルネットワークに基づく回帰とは対照的に、分類において、ニューラルネットワークからシンボル方程式への1対1マッピングを見つけることは一般的に不可能である。
トレーニングされたニューラルネットワークを、同じ量に基づいて決定を下す同値関数のクラスに組み込みます。
この等価クラスと記号回帰の探索空間で定義される人間可読方程式の交点を見つけることによってニューラルネットワークを解釈する。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Neural Networks are Decision Trees [0.0]
本稿では, 線形活性化関数を持つ任意のニューラルネットワークが決定木として表現可能であることを示す。
表現は等価であり近似ではないため、ニューラルネットワークの精度はそのままに保たれる。
論文 参考訳(メタデータ) (2022-10-11T06:49:51Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Detecting Modularity in Deep Neural Networks [8.967870619902211]
ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
論文 参考訳(メタデータ) (2021-10-13T20:33:30Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。