論文の概要: K-DAREK: Distance Aware Error for Kurkova Kolmogorov Networks
- arxiv url: http://arxiv.org/abs/2510.22021v1
- Date: Fri, 24 Oct 2025 20:49:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.738502
- Title: K-DAREK: Distance Aware Error for Kurkova Kolmogorov Networks
- Title(参考訳): K-DAREK: Kurkova Kolmogorov Networksの遠隔認識エラー
- Authors: Masoud Ataei, Vikas Dhiman, Mohammad Javad Khojasteh,
- Abstract要約: 我々はクルコバ・コルモゴロフネットワーク(K-DAREK)に対する新しい学習アルゴリズムを開発した。
提案手法は,距離を意識した頑健な誤差境界を確立する。つまり,テストポイントから最寄りのトレーニングポイントまでの距離を反映する。
- 参考スコア(独自算出の注目度): 3.460138063155115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are parametric and powerful tools for function approximation, and the choice of architecture heavily influences their interpretability, efficiency, and generalization. In contrast, Gaussian processes (GPs) are nonparametric probabilistic models that define distributions over functions using a kernel to capture correlations among data points. However, these models become computationally expensive for large-scale problems, as they require inverting a large covariance matrix. Kolmogorov- Arnold networks (KANs), semi-parametric neural architectures, have emerged as a prominent approach for modeling complex functions with structured and efficient representations through spline layers. Kurkova Kolmogorov-Arnold networks (KKANs) extend this idea by reducing the number of spline layers in KAN and replacing them with Chebyshev layers and multi-layer perceptrons, thereby mapping inputs into higher-dimensional spaces before applying spline-based transformations. Compared to KANs, KKANs perform more stable convergence during training, making them a strong architecture for estimating operators and system modeling in dynamical systems. By enhancing the KKAN architecture, we develop a novel learning algorithm, distance-aware error for Kurkova-Kolmogorov networks (K-DAREK), for efficient and interpretable function approximation with uncertainty quantification. Our approach establishes robust error bounds that are distance-aware; this means they reflect the proximity of a test point to its nearest training points. Through case studies on a safe control task, we demonstrate that K-DAREK is about four times faster and ten times higher computationally efficiency than Ensemble of KANs, 8.6 times more scalable than GP by increasing the data size, and 50% safer than our previous work distance-aware error for Kolmogorov networks (DAREK).
- Abstract(参考訳): ニューラルネットワークは関数近似のためのパラメトリックで強力なツールであり、アーキテクチャの選択はその解釈可能性、効率、一般化に大きな影響を及ぼす。
対照的に、ガウス過程(GP)は、カーネルを用いて関数上の分布を定義し、データポイント間の相関を捉える非パラメトリック確率モデルである。
しかし、これらのモデルは大きな共分散行列を反転させる必要があるため、大規模問題に対して計算コストがかかる。
半パラメトリックニューラルネットワークであるコルモゴロフ・アーノルドネットワーク(KAN)は、スプライン層を通して構造的かつ効率的な表現を持つ複素関数をモデル化するための顕著なアプローチとして登場した。
Kurkova Kolmogorov-Arnold Network (KKANs) はこのアイデアを拡張し、kan のスプライン層数を減らし、それらを Chebyshev 層と多層パーセプトロンに置き換えることで、スプラインベースの変換を適用する前に入力を高次元空間にマッピングする。
カンと比較して、KKANは訓練中により安定した収束を行い、力学系における演算子やシステムモデリングを推定するための強力なアーキテクチャとなる。
KKANアーキテクチャの強化により、不確実な定量化を伴う関数近似の効率的かつ解釈可能な、クルコバ・コルモゴロフネットワーク(K-DAREK)のための新しい学習アルゴリズムを開発した。
提案手法は, 距離を意識した頑健な誤差境界を確立する。つまり, 試験点から最寄りの訓練点までの距離を反映する。
安全制御タスクのケーススタディを通じて,K-DAREK は Kans の Ensemble の約4倍,計算効率が 10 倍,データサイズの増加による GP の 8.6 倍,K-DAREK が Kolmogorov ネットワーク (DAREK) の従来の作業距離認識誤差よりも50% 安全であることを実証した。
関連論文リスト
- Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - Positional Encoder Graph Quantile Neural Networks for Geographic Data [4.277516034244117]
本稿では,PE-GNNと量子ニューラルネットワーク,部分的に単調なニューラルブロック,ポストホックリカレーション技術を組み合わせた新しいフレームワークを提案する。
PE-GQNNは、ターゲット分布に関する最小の仮定で柔軟で堅牢な条件密度推定を可能にし、空間データを超えたタスクに自然に拡張する。
論文 参考訳(メタデータ) (2024-09-27T16:02:12Z) - Introducing a microstructure-embedded autoencoder approach for reconstructing high-resolution solution field data from a reduced parametric space [0.0]
我々は,パラメトリック空間情報を標準オートエンコーダアーキテクチャに組み込むことで,低忠実度解写像を高忠実度に変換する新しい多忠実深層学習手法を開発した。
パラメトリック空間情報の統合により、低忠実度から高忠実度解を効果的に予測するためのトレーニングデータの必要性が大幅に低減される。
論文 参考訳(メタデータ) (2024-05-03T10:00:36Z) - On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Communication-Efficient Federated Linear and Deep Generalized Canonical
Correlation Analysis [13.04301271535511]
本研究は, 線形GCCAと深層GCCAの双方を対象とした, コミュニケーション効率のよいフェデレーション学習フレームワークを提案する。
実験により,提案アルゴリズムは精度と収束速度をほぼ損なうことなく,通信オーバーヘッドを大幅に低減できることを示した。
論文 参考訳(メタデータ) (2021-09-25T16:43:10Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。