論文の概要: $C^*$-algebra Net: A New Approach Generalizing Neural Network Parameters
to $C^*$-algebra
- arxiv url: http://arxiv.org/abs/2206.09513v1
- Date: Mon, 20 Jun 2022 00:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 17:45:43.200834
- Title: $C^*$-algebra Net: A New Approach Generalizing Neural Network Parameters
to $C^*$-algebra
- Title(参考訳): C^*$-algebra Net: ニューラルネットワークパラメータを$C^*$-algebraに一般化する新しいアプローチ
- Authors: Yuka Hashimoto, Zhao Wang, and Tomoko Matsu
- Abstract要約: ニューラルネットワークモデルのパラメータを$C*$-algebra値に一般化する新しいフレームワークを提案する。
このフレームワークは,限られたサンプル数であっても,データの特徴を学習することができることを示す。
- 参考スコア(独自算出の注目度): 3.636290546370285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new framework that generalizes the parameters of neural network
models to $C^*$-algebra-valued ones. $C^*$-algebra is a generalization of the
space of complex numbers. A typical example is the space of continuous
functions on a compact space. This generalization enables us to combine
multiple models continuously and use tools for functions such as regression and
integration. Consequently, we can learn features of data efficiently and adapt
the models to problems continuously. We apply our framework to practical
problems such as density estimation and few-shot learning and show that our
framework enables us to learn features of data even with a limited number of
samples. Our new framework highlights the potential possibility of applying the
theory of $C^*$-algebra to general neural network models.
- Abstract(参考訳): ニューラルネットワークモデルのパラメータを$c^*$-algebra-valuedに一般化する新しいフレームワークを提案する。
C^*$-algebra は複素数の空間の一般化である。
典型的な例はコンパクト空間上の連続函数の空間である。
この一般化により、複数のモデルを連続的に組み合わせ、回帰や統合といった機能にツールを使うことができる。
その結果,データの特徴を効率的に学習し,モデルを継続的に問題に適用することができる。
我々は,密度推定や少数ショット学習といった実践的な問題にフレームワークを適用し,限られたサンプル数でもデータの特徴を学習できることを示す。
新しいフレームワークは、一般的なニューラルネットワークモデルに$c^*$-algebraの理論を適用する可能性を強調している。
関連論文リスト
- Universal Neural Functionals [67.80283995795985]
多くの現代の機械学習タスクでは、ウェイトスペース機能を処理することが難しい問題である。
最近の研究は、単純なフィードフォワードネットワークの置換対称性に同値な有望な重み空間モデルを開発した。
本研究は,任意の重み空間に対する置換同変モデルを自動的に構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T20:12:27Z) - $C^*$-Algebraic Machine Learning: Moving in a New Direction [13.23700804428796]
我々は機械学習研究の新しい方向性を提案する:$C*$-algebraic ML $-$$C*$-algebraと機械学習のクロスファーティライズ。
機械学習に$C*$-algebrasを使用する理由と方法を説明し、技術的な考察を提供する。
C*$-algebraic MLのオープンな質問や課題について議論し、今後の開発やアプリケーションについて考えます。
論文 参考訳(メタデータ) (2024-02-04T23:11:19Z) - Noncommutative $C^*$-algebra Net: Learning Neural Networks with Powerful Product Structure in $C^*$-algebra [5.359060261460183]
この非可換構造はニューラルネットワークの学習において強力な効果をもたらすことを示す。
私たちのフレームワークは、複数の関連するニューラルネットワークを相互に同時に学習したり、同変の特徴を学習するなど、幅広い用途を持っています。
論文 参考訳(メタデータ) (2023-01-26T14:35:37Z) - Neural Basis Models for Interpretability [33.51591891812176]
一般化加法モデル(GAMs)は本質的に解釈可能なモデルのクラスである。
形状関数の基底分解を利用するGAMの全く新しいサブファミリーを提案する。
少数の基底関数はすべての機能で共有され、与えられたタスクに対して共同で学習される。
論文 参考訳(メタデータ) (2022-05-27T17:31:19Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Neural Complexity Measures [96.06344259626127]
本稿では,一般化を予測するメタラーニングフレームワークであるNeural Complexity(NC)を提案する。
我々のモデルは、データ駆動方式で、多くの異種タスクとの相互作用を通じてスカラー複雑性尺度を学習する。
論文 参考訳(メタデータ) (2020-08-07T02:12:10Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - From Boltzmann Machines to Neural Networks and Back Again [31.613544605376624]
制限ボルツマンマシン(Restricted Boltzmann Machines)は、おそらく最もよく研究されている潜在変数モデルのクラスである。
我々の結果は、$ell_infty$bounded inputの下で二層ニューラルネットワークを学習するための新しい接続に基づいている。
次に,分散仮定を使わずに,関連するネットワークのクラスに対して可能なものよりも,より優れたランタイムで教師付きRAMの自然なクラスを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:42:50Z) - On the Theory of Transfer Learning: The Importance of Task Diversity [114.656572506859]
一般的な関数クラス$mathcalF circ MathcalH$において、$f_j circ h$という形の関数によってパラメータ化される$t+1$タスクを考える。
多様なトレーニングタスクに対して、最初の$t$のトレーニングタスク間で共有表現を学ぶのに必要なサンプルの複雑さが、$C(mathcalH) + t C(mathcalF)$であることを示す。
論文 参考訳(メタデータ) (2020-06-20T20:33:59Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。