論文の概要: Noncommutative $C^*$-algebra Net: Learning Neural Networks with Powerful
Product Structure in $C^*$-algebra
- arxiv url: http://arxiv.org/abs/2302.01191v1
- Date: Thu, 26 Jan 2023 14:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 00:09:35.144979
- Title: Noncommutative $C^*$-algebra Net: Learning Neural Networks with Powerful
Product Structure in $C^*$-algebra
- Title(参考訳): 非可換な$c^*$-algebra net:$c^*$-algebraにおける強力な製品構造を持つニューラルネットワークの学習
- Authors: Ryuichiro Hataya and Yuka Hashimoto
- Abstract要約: C*$-代数のこの非可換構造は、ニューラルネットワークの学習において強力な効果をもたらすことを示す。
我々のフレームワークは、相互作用と同時に複数の関連するニューラルネットワークを学習し、グループアクションに関して不変な特徴を学習するなど、幅広いアプリケーションを持っている。
- 参考スコア(独自算出の注目度): 5.01550203532856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new generalization of neural networks with noncommutative
$C^*$-algebra. An important feature of $C^*$-algebras is their noncommutative
structure of products, but the existing $C^*$-algebra net frameworks have only
considered commutative $C^*$-algebras. We show that this noncommutative
structure of $C^*$-algebras induces powerful effects in learning neural
networks. Our framework has a wide range of applications, such as learning
multiple related neural networks simultaneously with interactions and learning
invariant features with respect to group actions. We also show the validity of
our framework numerically, which illustrates its potential power.
- Abstract(参考訳): 非可換な$c^*$-代数を持つニューラルネットワークの新しい一般化を提案する。
c^*$-algebras の重要な特徴は製品の非可換構造であるが、既存の $c^*$-algebra のネットフレームワークは、可換な $c^*$-algebras しか考慮していない。
C^*$-代数のこの非可換構造はニューラルネットワーク学習において強力な効果をもたらすことを示す。
私たちのフレームワークは、複数の関連するニューラルネットワークを同時に学習したり、グループアクションに関する不変機能を学習したりするなど、幅広いアプリケーションを持っています。
また,本フレームワークの有効性を数値的に示すとともに,その潜在能力を示す。
関連論文リスト
- $C^*$-Algebraic Machine Learning: Moving in a New Direction [13.23700804428796]
我々は機械学習研究の新しい方向性を提案する:$C*$-algebraic ML $-$$C*$-algebraと機械学習のクロスファーティライズ。
機械学習に$C*$-algebrasを使用する理由と方法を説明し、技術的な考察を提供する。
C*$-algebraic MLのオープンな質問や課題について議論し、今後の開発やアプリケーションについて考えます。
論文 参考訳(メタデータ) (2024-02-04T23:11:19Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Neural Networks can Learn Representations with Gradient Descent [68.95262816363288]
特定の状況下では、勾配降下によって訓練されたニューラルネットワークは、カーネルメソッドのように振る舞う。
実際には、ニューラルネットワークが関連するカーネルを強く上回ることが知られている。
論文 参考訳(メタデータ) (2022-06-30T09:24:02Z) - $C^*$-algebra Net: A New Approach Generalizing Neural Network Parameters
to $C^*$-algebra [3.819811681211661]
ニューラルネットワークモデルのパラメータを$C*$-algebra値に一般化する新しいフレームワークを提案する。
このフレームワークは,限られたサンプル数であっても,データの特徴を学習することができることを示す。
論文 参考訳(メタデータ) (2022-06-20T00:27:28Z) - A Classification of $G$-invariant Shallow Neural Networks [1.4213973379473654]
我々は、ReLUアクティベーションを伴う全ての$G$不変シングルハイデン層または"シャロー"ニューラルネットワーク(G$-SNN)アーキテクチャの分類を与える定理を証明した。
いくつかの例群に対して$G$-SNNアーキテクチャを列挙し、それらの構造を視覚化する。
論文 参考訳(メタデータ) (2022-05-18T21:18:16Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - AlgebraNets [35.311476442807766]
本研究では, enwiki8 と WikiText-103 データセットを用いて代用代数学を数値表現として研究する。
我々は$mathbbC$, $mathbbH$, $M_2(mathbbR)$, $M_3(mathbbR)$, $M_4(mathbbR)$を考える。
これらの代数の乗法は実乗法よりも計算密度が高い。
論文 参考訳(メタデータ) (2020-06-12T17:51:20Z) - $\Pi-$nets: Deep Polynomial Neural Networks [86.36557534288535]
$Pi$-Netsは、出力が入力の高次であるニューラルネットワークである。
我々は、$Pi$-Netsが標準のDCNNよりも優れた表現能力を持っていることを実証的に実証した。
近年のStyleGANのような生成モデルが,先行モデルに改良を加えた理由を解明する。
論文 参考訳(メタデータ) (2020-03-08T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。