論文の概要: KAN-SAs: Efficient Acceleration of Kolmogorov-Arnold Networks on Systolic Arrays
- arxiv url: http://arxiv.org/abs/2512.00055v1
- Date: Thu, 20 Nov 2025 08:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.411287
- Title: KAN-SAs: Efficient Acceleration of Kolmogorov-Arnold Networks on Systolic Arrays
- Title(参考訳): Kan-SA:Systolic Array上でのKolmogorov-Arnoldネットワークの効率的な高速化
- Authors: Sohaib Errabii, Olivier Sentieys, Marcello Traiola,
- Abstract要約: Kolmogorov-Arnold Networks (KANs) はパラメータ効率と説明可能性の向上を約束している。
我々は,B-スプラインの内在特性を活用し,効率的なカン推論を実現する新しいSAベースの加速器であるKan-SAを提案する。
Kan-SAは、従来の等価領域のSAと比較して、最大100%SA利用、最大50%クロックサイクル削減を実現している。
- 参考スコア(独自算出の注目度): 1.5102260054654923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) have garnered significant attention for their promise of improved parameter efficiency and explainability compared to traditional Deep Neural Networks (DNNs). KANs' key innovation lies in the use of learnable non-linear activation functions, which are parametrized as splines. Splines are expressed as a linear combination of basis functions (B-splines). B-splines prove particularly challenging to accelerate due to their recursive definition. Systolic Array (SA)based architectures have shown great promise as DNN accelerators thanks to their energy efficiency and low latency. However, their suitability and efficiency in accelerating KANs have never been assessed. Thus, in this work, we explore the use of SA architecture to accelerate the KAN inference. We show that, while SAs can be used to accelerate part of the KAN inference, their utilization can be reduced to 30%. Hence, we propose KAN-SAs, a novel SA-based accelerator that leverages intrinsic properties of B-splines to enable efficient KAN inference. By including a nonrecursive B-spline implementation and leveraging the intrinsic KAN sparsity, KAN-SAs enhances conventional SAs, enabling efficient KAN inference, in addition to conventional DNNs. KAN-SAs achieves up to 100% SA utilization and up to 50% clock cycles reduction compared to conventional SAs of equivalent area, as shown by hardware synthesis results on a 28nm FD-SOI technology. We also evaluate different configurations of the accelerator on various KAN applications, confirming the improved efficiency of KAN inference provided by KAN-SAs.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KANs)は、従来のDeep Neural Networks (DNNs)と比較してパラメータ効率と説明可能性の改善を約束するという点で、大きな注目を集めている。
カンの鍵となる革新は学習可能な非線形活性化関数の使用であり、スプラインとしてパラメータ化されている。
スプラインは基底関数(B-スプライン)の線形結合として表現される。
B-スプラインは再帰的な定義のために加速することが特に困難である。
Systolic Array(SA)ベースのアーキテクチャは、エネルギー効率と低レイテンシのおかげで、DNNアクセラレータとして大きな可能性を秘めている。
しかし、これを加速させることの適性や効率性は評価されていない。
そこで本研究では, SA アーキテクチャを用いた Kan 推論の高速化について検討する。
その結果, SAs は Kan 推論の一部の高速化に有効であるが, 利用率を30% に削減できることがわかった。
そこで我々は,B-スプラインの内在的特性を活用し,効率的なカン推論を実現する新しいSA型加速器であるKan-SAを提案する。
非再帰的なB-スプラインの実装と固有のKAN空間の活用により、KAN-SAは従来のSAを強化し、従来のDNNに加えて効率的なKAN推論を可能にする。
kan-SAは28nm FD-SOI技術のハードウェア合成結果から示すように、従来の等価領域のSAと比べて最大100%SA利用と最大50%クロックサイクルの削減を実現している。
また,各種のkanアプリケーション上でのアクセルの異なる構成の評価を行い,kan-SAが提供したkan推論の効率向上を確認した。
関連論文リスト
- Efficient Neural Networks with Discrete Cosine Transform Activations [0.6933076588916188]
Expressive Neural Network(ENN)は、離散コサイン変換(DCT)を用いた適応活性化関数を持つ多層パーセプトロンである。
ENNは,少ないパラメータ数を維持しつつ,最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2025-11-05T15:02:58Z) - Energy efficiency analysis of Spiking Neural Networks for space applications [43.91307921405309]
スパイキングニューラルネットワーク(SNN)は理論的に優れたエネルギー効率のために非常に魅力的である。
本研究では,EuroSATデータセットのシーン分類に応用したSNN手法の数値解析と比較を行う。
論文 参考訳(メタデータ) (2025-05-16T16:29:50Z) - EPSILON: Adaptive Fault Mitigation in Approximate Deep Neural Network using Statistical Signatures [0.0]
我々は、ディープニューラルネットワークアクセラレータ(AxDNN)における効率的な障害検出と緩和のための軽量フレームワークであるEPSILONを紹介する。
本フレームワークでは,非パラメトリックなパターンマッチングアルゴリズムを導入し,通常の実行を中断することなく一定時間故障検出を実現する。
EPSILONは、重量分布と層臨界度の統計解析に基づいて緩和戦略をインテリジェントに調整することで、モデルの精度を維持する。
論文 参考訳(メタデータ) (2025-04-24T20:37:37Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - Low Tensor-Rank Adaptation of Kolmogorov--Arnold Networks [70.06682043272377]
コルモゴロフ-アルノルドネットワーク(KAN)は、様々な領域における多層知覚(MLP)の代替としての可能性を示した。
微調整カンのためのローテンソルランク適応(LoTRA)を開発した。
微調整カンによる様々な偏微分方程式(PDE)を効率的に解くためのLoTRAの適用について検討する。
論文 参考訳(メタデータ) (2025-02-10T04:57:07Z) - Free-Knots Kolmogorov-Arnold Network: On the Analysis of Spline Knots and Advancing Stability [16.957071012748454]
Kolmogorov-Arnold Neural Networks (KAN)は、機械学習コミュニティにおいて大きな注目を集めている。
しかしながら、それらの実装はトレーニングの安定性が悪く、重いトレーニング可能なパラメータに悩まされることが多い。
本研究では, スプラインノットのレンズによるカンの挙動を解析し, B-スプライン系カンの結び目数に対する上下境界を導出する。
論文 参考訳(メタデータ) (2025-01-16T04:12:05Z) - KAN we improve on HEP classification tasks? Kolmogorov-Arnold Networks applied to an LHC physics example [0.08192907805418582]
Kolmogorov-Arnold Networks (KAN) は多層パーセプトロンの代替として提案されている。
我々は高エネルギー物理学における典型的な二項イベント分類タスクについて検討し、カンの性能と解釈可能性についてコメントする。
論文 参考訳(メタデータ) (2024-08-05T18:01:07Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。