論文の概要: Ultrafast On-chip Online Learning via Spline Locality in Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2602.02056v1
- Date: Mon, 02 Feb 2026 12:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.15512
- Title: Ultrafast On-chip Online Learning via Spline Locality in Kolmogorov-Arnold Networks
- Title(参考訳): Kolmogorov-Arnoldネットワークにおけるスプライン局所性による超高速オンチップオンライン学習
- Authors: Duc Hoang, Aarush Gupta, Philip Harris,
- Abstract要約: 超高速オンライン学習は、量子コンピューティングや核融合の制御など、高周波システムにとって不可欠である。
これらの要件を満たすためには、厳密なメモリ制約の下での低レイテンシ、固定精度の計算が必要である。
これらの制約に適合するKAN(Kolmogorov-Arnold Networks)の重要な特性を同定する。
この研究は、サブマイクロ秒のレイテンシで、モデルなしのオンライン学習を初めてデモした。
- 参考スコア(独自算出の注目度): 2.3420342129506424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrafast online learning is essential for high-frequency systems, such as controls for quantum computing and nuclear fusion, where adaptation must occur on sub-microsecond timescales. Meeting these requirements demands low-latency, fixed-precision computation under strict memory constraints, a regime in which conventional Multi-Layer Perceptrons (MLPs) are both inefficient and numerically unstable. We identify key properties of Kolmogorov-Arnold Networks (KANs) that align with these constraints. Specifically, we show that: (i) KAN updates exploiting B-spline locality are sparse, enabling superior on-chip resource scaling, and (ii) KANs are inherently robust to fixed-point quantization. By implementing fixed-point online training on Field-Programmable Gate Arrays (FPGAs), a representative platform for on-chip computation, we demonstrate that KAN-based online learners are significantly more efficient and expressive than MLPs across a range of low-latency and resource-constrained tasks. To our knowledge, this work is the first to demonstrate model-free online learning at sub-microsecond latencies.
- Abstract(参考訳): 超高速オンライン学習は、量子コンピューティングや核融合の制御など、マイクロ秒以下の時間スケールで適応する必要がある高周波システムにとって不可欠である。
これらの要件を満たすためには、厳密なメモリ制約の下での低レイテンシ、固定精度の計算が必要であり、従来のマルチ層パーセプトロン(MLP)は非効率かつ数値的に不安定である。
これらの制約に適合するKAN(Kolmogorov-Arnold Networks)の重要な特性を同定する。
具体的には こう示します
(i)B-スプラインの局所性を利用したkan更新は少ないため、オンチップのリソーススケーリングが優れている。
(ii)カンは本質的に不動点量子化に対して堅牢である。
オンチップ計算の代表的なプラットフォームであるField-Programmable Gate Arrays (FPGAs) 上の固定点オンライントレーニングを実装することで、低レイテンシおよびリソース制約タスクの多岐にわたるMLPよりも、kanベースのオンライン学習者がはるかに効率的で表現力が高いことを示した。
私たちの知る限り、この研究は、サブマイクロ秒レイテンシでモデルなしのオンライン学習を初めて実証したものです。
関連論文リスト
- Traces Propagation: Memory-Efficient and Scalable Forward-Only Learning in Spiking Neural Networks [1.6952253597549973]
スパイキングニューラルネットワーク(SNN)は、動的時間信号を処理するための効率的なフレームワークを提供する。
SNNのトレーニングにおける重要な課題は、空間的および時間的クレジット割り当ての両方を解決することである。
論文 参考訳(メタデータ) (2025-09-16T13:11:52Z) - Reinforcement Learning for Quantum Network Control with Application-Driven Objectives [53.03367590211247]
動的プログラミングと強化学習は、制御戦略を最適化するための有望なツールを提供する。
非線形で微分可能な目的関数を直接最適化する新しいRLフレームワークを提案する。
我々の研究は、RLを持つ量子ネットワークにおける非線形目的関数最適化への第一歩であり、より高度なユースケースへの道を開く。
論文 参考訳(メタデータ) (2025-09-12T18:41:10Z) - LCQNN: Linear Combination of Quantum Neural Networks [7.010027035873597]
量子ニューラルネットワークの線形結合(LCQNN)フレームワークについて述べる。
制御ユニタリの$k$を採用する、あるいはモデルを特定の群理論部分空間に制限するといった構造的選択が、勾配の崩壊を防ぐことを示す。
群行動シナリオでは、対称性を利用して指数関数的に大きい既約部分空間を除外することにより、モデルはバレンプラトーを回避できることを示す。
論文 参考訳(メタデータ) (2025-07-03T17:43:10Z) - FL-QDSNNs: Federated Learning with Quantum Dynamic Spiking Neural Networks [2.5435687567731926]
FL-QDSNN(Federated Learning-Quantum Dynamic Spiking Neural Networks)を提案する。
FL-QDSNNは、非IIDクライアントデータに対する高い予測精度を維持するプライバシー保護フレームワークである。
その鍵となる革新は、局所的なデータドリフトが追加表現性を必要とする場合にのみ量子ゲートをトリガーする動的閾値スパイキング機構である。
論文 参考訳(メタデータ) (2024-12-03T09:08:33Z) - On-Device Learning with Binary Neural Networks [2.7040098749051635]
我々は、最近のCL分野の進歩とBNN(Binary Neural Networks)の効率を取り入れたCLソリューションを提案する。
バックボーンとしてのバイナリネットワークの選択は、低消費電力デバイスの制約を満たすために不可欠である。
論文 参考訳(メタデータ) (2023-08-29T13:48:35Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。