論文の概要: No More DeLuLu: Physics-Inspired Kernel Networks for Geometrically-Grounded Neural Computation
- arxiv url: http://arxiv.org/abs/2603.12276v1
- Date: Sun, 22 Feb 2026 01:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.200759
- Title: No More DeLuLu: Physics-Inspired Kernel Networks for Geometrically-Grounded Neural Computation
- Title(参考訳): No More DeLuLu: 幾何学的に取り巻くニューラルネットワークのための物理インスパイアされたカーネルネットワーク
- Authors: Taha Bouhsine,
- Abstract要約: 本稿では,2次アライメントと逆2乗近接性を組み合わせたカーネル演算子Yat-productを紹介する。
我々は、それがメルサー核、解析的、有界領域上のリプシッツ、自己正規化であることを証明する。
ニューラル・マター・ネットワーク(NMN)は、ヤット積を唯一の非線形性として使用し、従来の線形活性化正規化ブロックを1つの幾何学的基底演算に置き換えた。
- 参考スコア(独自算出の注目度): 0.42303492200814446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the yat-product, a kernel operator combining quadratic alignment with inverse-square proximity. We prove it is a Mercer kernel, analytic, Lipschitz on bounded domains, and self-regularizing, admitting a unique RKHS embedding. Neural Matter Networks (NMNs) use yat-product as the sole non-linearity, replacing conventional linear-activation-normalization blocks with a single geometrically-grounded operation. This architectural simplification preserves universal approximation while shifting normalization into the kernel itself via the denominator, rather than relying on separate normalization layers. Empirically, NMN-based classifiers match linear baselines on MNIST while exhibiting bounded prototype evolution and superposition robustness. In language modeling, Aether-GPT2 achieves lower validation loss than GPT-2 with a comparable parameter budget while using yat-based attention and MLP blocks. Our framework unifies kernel learning, gradient stability, and information geometry, establishing NMNs as a principled alternative to conventional neural architectures.
- Abstract(参考訳): 本稿では,2次アライメントと逆2乗近接性を組み合わせたカーネル演算子Yat-productを紹介する。
我々は、それがマーサー核であり、解析的であり、有界領域上のリプシッツであり、独自のRKHS埋め込みを認める自己正規化であることを示した。
ニューラル・マター・ネットワーク(NMN)は、ヤット積を唯一の非線形性として使用し、従来の線形活性化正規化ブロックを1つの幾何学的基底演算に置き換えた。
このアーキテクチャの単純化は、正規化を別の正規化層に頼るのではなく、分母を通してカーネル自体にシフトしながら、普遍的な近似を保存する。
経験的に、NMN ベースの分類器は MNIST 上の線形基底線と一致し、有界なプロトタイプの進化と重ね合わせの堅牢性を示す。
言語モデリングにおいて、Aether-GPT2は、ヤットベースのアテンションとMLPブロックを使用しながら、パラメータ予算に匹敵するGPT-2よりも低い検証損失を達成する。
我々のフレームワークは、カーネル学習、勾配安定性、情報幾何学を統一し、従来のニューラルネットワークアーキテクチャに代わる原則としてNMNを確立する。
関連論文リスト
- Learning Geometric-Aware Quadrature Rules for Functional Minimization [0.0]
我々は、点雲の基底となる幾何学から直接最適な2次重みを学習するために設計されたニューラルネットワーク(GNN)アーキテクチャを導入する。
この研究はエネルギー汎関数変動の最適化に不可欠であり、深層学習に基づく変分解法の改善につながる。
論文 参考訳(メタデータ) (2025-08-07T14:37:23Z) - Can Kernel Methods Explain How the Data Affects Neural Collapse? [9.975341265604577]
ニューラルネットワーク(NN)分類器がゼロトレーニングエラー点を超えると、"Neural Collapse"(NC)現象が発生する。
本稿では,浅いNNに関連付けられたカーネルを用いてNC1を解析する可能性について検討する。
論文 参考訳(メタデータ) (2024-06-04T08:33:56Z) - Matrix Completion via Nonsmooth Regularization of Fully Connected Neural Networks [7.349727826230864]
ディープニューラルネットワークのような非線形推定器を使うことで、性能の向上が達成できることが示されている。
本稿では,標準中間表現の観点から,FCNNモデルの正規化によるオーバーフィット制御を行う。
本シミュレーションは,既存の線形および非線形アルゴリズムと比較して,提案アルゴリズムの優位性を示す。
論文 参考訳(メタデータ) (2024-03-15T12:00:37Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Neural Optimization Kernel: Towards Robust Deep Learning [13.147925376013129]
近年の研究では、ニューラルネットワーク(NN)とカーネルメソッドの関連性が示されている。
本稿では,カーネル(NOK)という新しいカーネルファミリーを提案する。
パラメータ化ディープNN(NOK)は,経験的リスクを低減し,有界一般化を同時に低減できることを示す。
論文 参考訳(メタデータ) (2021-06-11T00:34:55Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。