論文の概要: Double framed moduli spaces of quiver representations
- arxiv url: http://arxiv.org/abs/2109.14589v2
- Date: Mon, 11 Oct 2021 16:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 04:59:51.798490
- Title: Double framed moduli spaces of quiver representations
- Title(参考訳): quiver表現の二重フレームモジュライ空間
- Authors: Marco Armenta, Thomas Br\"ustle, Souheila Hassoun, Markus Reineke
- Abstract要約: 二重フレームのquiver表現のモジュライ空間を研究し、これらのモジュライ空間の線型代数記述と表現理論記述の両方を与える。
ニューラルネットワークの出力がモジュライ空間の対応する点にのみ依存していることを証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by problems in the neural networks setting, we study moduli spaces
of double framed quiver representations and give both a linear algebra
description and a representation theoretic description of these moduli spaces.
We define a network category whose isomorphism classes of objects correspond to
the orbits of quiver representations, in which neural networks map input data.
We then prove that the output of a neural network depends only on the
corresponding point in the moduli space. Finally, we present a different
perspective on mapping neural networks with a specific activation function,
called ReLU, to a moduli space using the symplectic reduction approach to
quiver moduli.
- Abstract(参考訳): ニューラルネットワーク設定における問題に触発され、二重フレームのquiver表現のモジュライ空間を研究し、これらのモジュライ空間の線形代数記述と表現理論記述の両方を与える。
我々は,物体の同型クラスが,ニューラルネットワークが入力データをマッピングするクイバー表現の軌道に対応するネットワークカテゴリを定義する。
次に、ニューラルネットワークの出力がモジュライ空間の対応する点にのみ依存していることを証明する。
最後に,シンプレクティック・リダクション(シンプレクティック・リダクション)アプローチを用いて,特定のアクティベーション関数であるreluを用いたニューラルネットワークのモジュライ空間へのマッピングに関して,異なる視点を示す。
関連論文リスト
- Formation of Representations in Neural Networks [8.79431718760617]
現代のニューラルネットワークにおいて、いかに複雑で構造化され、伝達可能な表現が出現するかは謎のままである。
本稿では、表現の形成を普遍的に支配する6つのアライメント関係の集合を仮定したCRH(Canonical Representation hypothesis)を提案する。
CRHの崩壊はR,W,Gの相互関係の出現につながり,この関係をPAH(Polynomial Alignment hypothesis)と呼ぶ。
論文 参考訳(メタデータ) (2024-10-03T21:31:01Z) - Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - A rank decomposition for the topological classification of neural representations [0.0]
この研究では、ニューラルネットワークが連続的なピースワイズアフィンマップと等価であるという事実を活用している。
多様体 $mathcalM$ と部分集合 $A$ の商のホモロジー群を研究し、これらの空間上のいくつかの極小性質を仮定する。
ランダムに狭いネットワークでは、データ多様体の(コ)ホモロジー群が変化する領域が存在することを示す。
論文 参考訳(メタデータ) (2024-04-30T17:01:20Z) - Joint Group Invariant Functions on Data-Parameter Domain Induce
Universal Neural Networks [14.45619075342763]
本稿では、一般化されたニューラルネットワークとその右逆演算子であるリッジレット変換を誘導する体系的手法を提案する。
リッジレット変換は逆であるため、対象関数を表すためにネットワークのパラメータの配置を記述することができる。
より広い階層のネットワークを包含する統一的な方法でシュルの補題を用いて、普遍性の新たな単純な証明を示す。
論文 参考訳(メタデータ) (2023-10-05T13:30:37Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - On reaction network implementations of neural networks [0.0]
本稿では,(フィードフォワード)ニューラルネットワークの実装に決定論的にモデル化された化学反応ネットワークの利用について述べる。
ニューラルネットワークのある種の反応ネットワーク実装に付随する常微分方程式(ODE)が望ましい性質を持つことを示す。
論文 参考訳(メタデータ) (2020-10-26T02:37:26Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Banach Space Representer Theorems for Neural Networks and Ridge Splines [17.12783792226575]
データに適合するニューラルネットワークで学習した関数の性質を理解するための変分フレームワークを開発する。
有限幅単層ニューラルネットワークが逆問題に対する解であることを示す代表者定理を導出する。
論文 参考訳(メタデータ) (2020-06-10T02:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。