論文の概要: KANELÉ: Kolmogorov-Arnold Networks for Efficient LUT-based Evaluation
- arxiv url: http://arxiv.org/abs/2512.12850v1
- Date: Sun, 14 Dec 2025 21:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.47262
- Title: KANELÉ: Kolmogorov-Arnold Networks for Efficient LUT-based Evaluation
- Title(参考訳): kanelé: Kolmogorov-Arnold Networks for Efficient LUT-based Evaluation
- Authors: Duc Hoang, Aarush Gupta, Philip Harris,
- Abstract要約: KanEL は、FPGA デプロイメントのために Kolmogorov-Arnold Networks (KAN) のユニークな特性を利用するフレームワークである。
FPGA上でkanを実装するための最初の体系的設計フローを示す。
結果は2700倍のスピードアップと桁違いのリソース節約を示す。
- 参考スコア(独自算出の注目度): 2.3420342129506424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-latency, resource-efficient neural network inference on FPGAs is essential for applications demanding real-time capability and low power. Lookup table (LUT)-based neural networks are a common solution, combining strong representational power with efficient FPGA implementation. In this work, we introduce KANELÉ, a framework that exploits the unique properties of Kolmogorov-Arnold Networks (KANs) for FPGA deployment. Unlike traditional multilayer perceptrons (MLPs), KANs employ learnable one-dimensional splines with fixed domains as edge activations, a structure naturally suited to discretization and efficient LUT mapping. We present the first systematic design flow for implementing KANs on FPGAs, co-optimizing training with quantization and pruning to enable compact, high-throughput, and low-latency KAN architectures. Our results demonstrate up to a 2700x speedup and orders of magnitude resource savings compared to prior KAN-on-FPGA approaches. Moreover, KANELÉ matches or surpasses other LUT-based architectures on widely used benchmarks, particularly for tasks involving symbolic or physical formulas, while balancing resource usage across FPGA hardware. Finally, we showcase the versatility of the framework by extending it to real-time, power-efficient control systems.
- Abstract(参考訳): FPGA上での低レイテンシでリソース効率のよいニューラルネットワーク推論は、リアルタイム能力と低電力を必要とするアプリケーションに不可欠である。
ルックアップテーブル(LUT)ベースのニューラルネットワークは、強力な表現力と効率的なFPGA実装を組み合わせた一般的なソリューションである。
本研究では,KanELÉという,Kolmogorov-Arnold Networks(KAN)のユニークな特性をFPGAデプロイメントに活用するフレームワークを紹介する。
従来の多層パーセプトロン(MLP)とは異なり、カンはエッジアクティベーションとして固定領域を持つ学習可能な1次元スプラインを用いる。
FPGA上でkanを実装するための最初の体系的設計フローについて,量子化とプルーニングによるトレーニングを併用して,コンパクトで高スループットで低レイテンシなkanアーキテクチャを実現する。
その結果,従来の Kan-on-FPGA のアプローチと比較して,2700倍の高速化と大容量のリソース節約が達成された。
さらに、KanELÉは広く使用されているベンチマーク、特に記号式や物理式を含むタスクに対して、FPGAハードウェア間でリソース使用量のバランスをとるために、他のLUTベースのアーキテクチャをマッチまたは超越する。
最後に,リアルタイムかつ高効率な制御システムに拡張することで,フレームワークの汎用性を示す。
関連論文リスト
- Optimizing Neural Networks with Learnable Non-Linear Activation Functions via Lookup-Based FPGA Acceleration [17.92095380908621]
FPGAベースの設計は、エッジCPUやGPUに比べて優れた計算速度と104ドル以上のエネルギー効率を実現する。
このブレークスルーは、我々のアプローチをエネルギークリティカルエッジAIの実用的な実現方法として位置づけており、計算強度と電力制約が従来の適応的アクティベーションネットワークの使用を妨げている。
論文 参考訳(メタデータ) (2025-08-23T15:51:14Z) - LUTMUL: Exceed Conventional FPGA Roofline Limit by LUT-based Efficient Multiplication for Neural Network Inference [25.342107763021147]
本稿では、LUTMULを導入し、LUT(ルックアップテーブル)のポテンシャルを利用して乗算を行う。
LUTのこの利点を生かして,FPGAベースのニューラルネットワークアクセラレータの性能向上の可能性を実証する。
論文 参考訳(メタデータ) (2024-11-01T02:54:11Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Logic Shrinkage: Learned FPGA Netlist Sparsity for Efficient Neural
Network Inference [3.2296078260106174]
本稿では,LUTに基づくトポロジの学習最適化を提案する。
既存のアーキテクチャの実装では、LUT, Kあたりの入力数を手動で指定する必要がある。
本稿では,FPGA推論を対象とするニューラルネットワークにおいて,各LUTに対してKを自動的に学習することのできる,詳細なネットリスト解析手法である論理縮小手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T14:23:24Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。