論文の概要: The Representation Theory of Neural Networks
- arxiv url: http://arxiv.org/abs/2007.12213v2
- Date: Mon, 22 Mar 2021 19:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:36:45.622014
- Title: The Representation Theory of Neural Networks
- Title(参考訳): ニューラルネットワークの表現理論
- Authors: Marco Antonio Armenta and Pierre-Marc Jodoin
- Abstract要約: ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
- 参考スコア(独自算出の注目度): 7.724617675868718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we show that neural networks can be represented via the
mathematical theory of quiver representations. More specifically, we prove that
a neural network is a quiver representation with activation functions, a
mathematical object that we represent using a network quiver. Also, we show
that network quivers gently adapt to common neural network concepts such as
fully-connected layers, convolution operations, residual connections, batch
normalization, pooling operations and even randomly wired neural networks. We
show that this mathematical representation is by no means an approximation of
what neural networks are as it exactly matches reality. This interpretation is
algebraic and can be studied with algebraic methods. We also provide a quiver
representation model to understand how a neural network creates representations
from the data. We show that a neural network saves the data as quiver
representations, and maps it to a geometrical space called the moduli space,
which is given in terms of the underlying oriented graph of the network, i.e.,
its quiver. This results as a consequence of our defined objects and of
understanding how the neural network computes a prediction in a combinatorial
and algebraic way. Overall, representing neural networks through the quiver
representation theory leads to 9 consequences and 4 inquiries for future
research that we believe are of great interest to better understand what neural
networks are and how they work.
- Abstract(参考訳): 本研究では,ニューラルネットワークがクイバー表現の数学的理論を通じて表現できることを示す。
より具体的には、ニューラルネットワークはアクティベーション関数を持つクイバー表現であり、ネットワーククイバーを用いて表現する数学的対象であることを示す。
また,完全連結層,畳み込み操作,残留接続,バッチ正規化,プーリング操作,さらにはランダムに繋がったニューラルネットワークといった一般的なニューラルネットワークの概念に,ネットワークのクイバーが緩やかに適応することを示した。
この数学的表現は、ニューラルネットワークが現実と正確に一致していることの近似ではないことを示す。
この解釈は代数的であり、代数的手法で研究することができる。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
ニューラルネットワークは、データをクイバー表現として保存し、そのクイバーの基盤となる配向グラフ(すなわち、そのクイバー)で与えられるモジュラー空間と呼ばれる幾何学的空間にマッピングする。
この結果は、定義したオブジェクトの結果であり、ニューラルネットワークが組合せ的および代数的方法で予測をどのように計算するかを理解する結果となります。
全体として、クイバー表現理論によるニューラルネットワークの表現は、9つの結果と4つの将来の研究に対する4つの疑問をもたらす。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic Gradients [0.7832189413179361]
人工ニューラルネットワークにおいて、任意の単一ニューロンのクローズドフォーム解釈を見つけるための統一的なフレームワークを紹介します。
ニューラルネットワーク分類器を解釈して、決定境界に符号化された概念のクローズドフォーム表現を明らかにする。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Neural Networks are Decision Trees [0.0]
本稿では, 線形活性化関数を持つ任意のニューラルネットワークが決定木として表現可能であることを示す。
表現は等価であり近似ではないため、ニューラルネットワークの精度はそのままに保たれる。
論文 参考訳(メタデータ) (2022-10-11T06:49:51Z) - Detecting Modularity in Deep Neural Networks [8.967870619902211]
ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
論文 参考訳(メタデータ) (2021-10-13T20:33:30Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。