論文の概要: K\"ahler Geometry of Quiver Varieties and Machine Learning
- arxiv url: http://arxiv.org/abs/2101.11487v2
- Date: Wed, 10 Feb 2021 16:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 22:27:55.994617
- Title: K\"ahler Geometry of Quiver Varieties and Machine Learning
- Title(参考訳): K\'ahler Geometry of Quiver Varieties and Machine Learning
- Authors: George Jeffreys and Siu-Cheong Lau
- Abstract要約: 我々は、フレーム表現のモジュラー空間を用いた機械学習におけるニューラルネットワークの代数幾何学的定式化を開発する。
複素射影空間から構築された多変数活性化関数に対する普遍近似定理を証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop an algebro-geometric formulation for neural networks in machine
learning using the moduli space of framed quiver representations. We find
natural Hermitian metrics on the universal bundles over the moduli which are
compatible with the GIT quotient construction by the general linear group, and
show that their Ricci curvatures give a K\"ahler metric on the moduli.
Moreover, we use toric moment maps to construct activation functions, and prove
the universal approximation theorem for the multi-variable activation function
constructed from the complex projective space.
- Abstract(参考訳): 我々は、フレームド・クイバー表現のモジュライ空間を用いた機械学習におけるニューラルネットワークの代数幾何学的定式化を開発する。
一般線型群による GIT の商構造と互換性のあるモジュライ上の普遍バンドル上の自然なエルミート測度と、それらのリッチ曲率がモジュライ上の K\" アーラー測度を与えることを示す。
さらに, トーリックモーメント写像を用いて活性化関数を構築し, 複素射影空間から構築した多変数活性化関数に対する普遍近似定理を証明した。
関連論文リスト
- On the Geometry and Optimization of Polynomial Convolutional Networks [2.9816332334719773]
単項活性化機能を持つ畳み込みニューラルネットワークについて検討する。
我々は、モデルの表現力を測定するニューロマニフォールドの次元と度合いを計算する。
一般的な大規模データセットに対して、回帰損失の最適化に起因した臨界点の数を定量化する明示的な公式を導出する。
論文 参考訳(メタデータ) (2024-10-01T14:13:05Z) - RMLR: Extending Multinomial Logistic Regression into General Geometries [64.16104856124029]
我々のフレームワークは、最小限の幾何学的性質しか必要とせず、広い適用性を示す。
SPD MLRの5つのファミリーを5種類のパワー変形測定値に基づいて開発する。
回転行列上では、人気のある双不変計量に基づいてリー MLR を提案する。
論文 参考訳(メタデータ) (2024-09-28T18:38:21Z) - A Unified Framework for Discovering Discrete Symmetries [17.687122467264487]
対称性を尊重する関数を対称性のクラスから学習する問題を考察する。
我々は、幅広いサブグループにわたる対称性の発見を可能にする統一的なフレームワークを開発する。
論文 参考訳(メタデータ) (2023-09-06T10:41:30Z) - A General Framework for Equivariant Neural Networks on Reductive Lie
Groups [2.0769531810371307]
還元リー群は、高エネルギー物理学、量子力学、量子色力学、分子動力学、コンピュータビジョン、イメージングなど、科学分野において重要な役割を担っている。
任意の簡約リー群 G の有限次元表現を尊重できる一般同変ニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-31T18:09:37Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Local and global topological complexity measures OF ReLU neural network functions [0.0]
Grunert-Kuhnel-Rote による Morse 理論のピースワイズ線形(PL) バージョンを適用して、位相的複雑性の新しい局所的および大域的概念を定義し、研究する。
各 F に対して、標準ポリトープ複体 K(F) と領域の K(F) への変形レトラクションを構成し、計算を行うための便利なコンパクトモデルを生成する方法を示す。
論文 参考訳(メタデータ) (2022-04-12T19:49:13Z) - Noncommutative Geometry of Computational Models and Uniformization for
Framed Quiver Varieties [0.0]
非可換代数と近接環を用いて計算ニューラルネットワークの数学的構成を定式化する。
対応するフレームド・クイバー表現のモジュライ空間について検討し、均一化の観点からユークリッド型および非コンパクト型のモジュライを求める。
論文 参考訳(メタデータ) (2022-01-15T18:08:50Z) - A Unifying and Canonical Description of Measure-Preserving Diffusions [60.59592461429012]
ユークリッド空間における測度保存拡散の完全なレシピは、最近、いくつかのMCMCアルゴリズムを単一のフレームワークに統合した。
我々は、この構成を任意の多様体に改善し一般化する幾何学理論を開発する。
論文 参考訳(メタデータ) (2021-05-06T17:36:55Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。