論文の概要: Initialization of a Polyharmonic Cascade, Launch and Testing
- arxiv url: http://arxiv.org/abs/2512.19524v1
- Date: Mon, 22 Dec 2025 16:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.825115
- Title: Initialization of a Polyharmonic Cascade, Launch and Testing
- Title(参考訳): ポリハーモニックカスケードの初期化と発射試験
- Authors: Yuriy N. Bakhvalov,
- Abstract要約: 本稿では,非依存原理とランダム関数の理論から理論的に導かれる深層学習アーキテクチャである多調和カスケードについて,一連の研究をまとめる。
中心点を持つ超オクタヘドラの形の対称星座に基づいて、普遍的な初期化手順を提案する。
MNIST (98.3%、畳み込みや拡張なし)、HIGGS (AUC 0.885、11M の例)、Epsilon (AUC 0.963、2000 の例) でスケーラビリティと堅牢性が実証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper concludes a series of studies on the polyharmonic cascade, a deep machine learning architecture theoretically derived from indifference principles and the theory of random functions. A universal initialization procedure is proposed, based on symmetric constellations in the form of hyperoctahedra with a central point. This initialization not only ensures stable training of cascades with tens and hundreds of layers (up to 500 layers without skip connections), but also radically simplifies the computations. Scalability and robustness are demonstrated on MNIST (98.3% without convolutions or augmentations), HIGGS (AUC approximately 0.885 on 11M examples), and Epsilon (AUC approximately 0.963 with 2000 features). All linear algebra is reduced to 2D operations and is efficiently executed on GPUs. A public repository and an archived snapshot are provided for full reproducibility.
- Abstract(参考訳): 本稿では,非依存原理とランダム関数の理論から理論的に導かれる深層学習アーキテクチャである多調和カスケードについて,一連の研究をまとめる。
中心点を持つ超オクタヘドラの形の対称星座に基づいて、普遍的な初期化手順を提案する。
この初期化は、数十層から数百層のカスケード(接続をスキップせずに500層まで)を安定的にトレーニングするだけでなく、計算を根本的に単純化する。
MNIST (98.3%、畳み込みや拡張なし)、HIGGS (AUC 0.885、11M の例)、Epsilon (AUC 0.963、2000 の例) でスケーラビリティと堅牢性が実証されている。
すべての線形代数は2次元演算に還元され、GPU上で効率的に実行される。
完全な再現性のために、パブリックリポジトリとアーカイブスナップショットが提供される。
関連論文リスト
- Polyharmonic Cascade [0.0]
ポリハーモニック・カスケード(Polyharmonic cascade)は、ポリハーモニック・スプラインのパッケージ。
各層はランダム関数の理論と無関心の原理から厳密に導かれる。
ポリハーモニックカスケードでは勾配降下に代わる訓練法が提案されている。
論文 参考訳(メタデータ) (2025-12-19T15:14:14Z) - Polyharmonic Spline Packages: Composition, Efficient Procedures for Computation and Differentiation [0.0]
本稿では,ポリハーモニックスプラインのパッケージから構築したカスケードアーキテクチャを提案する。
カスケードを通したフォワード計算とエンド・ツー・エンドの微分のために、効率的な行列プロシージャが提示される。
論文 参考訳(メタデータ) (2025-12-18T16:21:09Z) - Beyond Universal Approximation Theorems: Algorithmic Uniform Approximation by Neural Networks Trained with Noisy Data [12.815892583089443]
本稿では,N$ノイズ学習サンプルから一様近似器を構成するアーキテクチャ固有のランダム化学習アルゴリズムを提案する。
学習したニューラルネットワークは、古典的UATで想定される理想化されたノイズレスサンプリングの下で消滅する対数的要因を考慮し、最小限の最大(非ランダム)パラメータを実現する。
論文 参考訳(メタデータ) (2025-08-31T16:20:27Z) - Large-Scale Bayesian Tensor Reconstruction: An Approximate Message Passing Solution [18.444283092747977]
CP-GAMPは大規模テンソルに対するスケーラブルなベイズCPDアルゴリズムである。
提案アルゴリズムは,現状のベイズ変量CPD法と比較して,ランタイムを82.7%削減する。
論文 参考訳(メタデータ) (2025-05-22T06:57:49Z) - Transolver++: An Accurate Neural Solver for PDEs on Million-Scale Geometries [67.63077028746191]
Transolver++は、百万のスケールでPDEを解くことができる、非常に並列で効率的なニューラルソルバである。
Transolver++は、シングルGPU入力能力を初めて100万ポイントに拡張する。
数百万スケールの高忠実度産業シミュレーションで20%以上の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:33:50Z) - Training-free Ultra Small Model for Universal Sparse Reconstruction in Compressed Sensing [39.36305648162564]
本稿では,係数学習(CL)と呼ばれる超小型人工ニューラルモデルを提案する。
CLは、従来の反復的手法の一般性と解釈性を継承しつつ、トレーニング不要で迅速なスパース再構築を可能にする。
代表的反復法と比較して、CLOMPは大規模データの効率を100から1000倍に改善する。
論文 参考訳(メタデータ) (2025-01-20T16:50:59Z) - Language Models as Zero-shot Lossless Gradient Compressors: Towards General Neural Parameter Prior Models [56.00251589760559]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
実験により、LM-GCは既存の最先端のロスレス圧縮手法を超越していることが示された。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - The Power of Resets in Online Reinforcement Learning [73.64852266145387]
ローカルシミュレータアクセス(あるいはローカルプランニング)を用いたオンライン強化学習を通してシミュレータのパワーを探求する。
カバー性が低いMPPは,Qstar$-realizabilityのみのサンプル効率で学習可能であることを示す。
ローカルシミュレーターアクセス下では, 悪名高いExogenous Block MDP問題が抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-04-23T18:09:53Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。