論文の概要: Optimizing Neural Networks with Learnable Non-Linear Activation Functions via Lookup-Based FPGA Acceleration
- arxiv url: http://arxiv.org/abs/2508.17069v1
- Date: Sat, 23 Aug 2025 15:51:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.323519
- Title: Optimizing Neural Networks with Learnable Non-Linear Activation Functions via Lookup-Based FPGA Acceleration
- Title(参考訳): ルックアップベースFPGAアクセラレーションによる学習可能な非線形活性化関数を用いたニューラルネットワークの最適化
- Authors: Mengyuan Yin, Benjamin Chen Ming Choong, Chuping Qu, Rick Siow Mong Goh, Weng-Fai Wong, Tao Luo,
- Abstract要約: FPGAベースの設計は、エッジCPUやGPUに比べて優れた計算速度と104ドル以上のエネルギー効率を実現する。
このブレークスルーは、我々のアプローチをエネルギークリティカルエッジAIの実用的な実現方法として位置づけており、計算強度と電力制約が従来の適応的アクティベーションネットワークの使用を妨げている。
- 参考スコア(独自算出の注目度): 17.92095380908621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned activation functions in models like Kolmogorov-Arnold Networks (KANs) outperform fixed-activation architectures in terms of accuracy and interpretability; however, their computational complexity poses critical challenges for energy-constrained edge AI deployments. Conventional CPUs/GPUs incur prohibitive latency and power costs when evaluating higher order activations, limiting deployability under ultra-tight energy budgets. We address this via a reconfigurable lookup architecture with edge FPGAs. By coupling fine-grained quantization with adaptive lookup tables, our design minimizes energy-intensive arithmetic operations while preserving activation fidelity. FPGA reconfigurability enables dynamic hardware specialization for learned functions, a key advantage for edge systems that require post-deployment adaptability. Evaluations using KANs - where unique activation functions play a critical role - demonstrate that our FPGA-based design achieves superior computational speed and over $10^4$ times higher energy efficiency compared to edge CPUs and GPUs, while maintaining matching accuracy and minimal footprint overhead. This breakthrough positions our approach as a practical enabler for energy-critical edge AI, where computational intensity and power constraints traditionally preclude the use of adaptive activation networks.
- Abstract(参考訳): Kolmogorov-Arnold Networks(KAN)のようなモデルにおける学習されたアクティベーション機能は、正確性と解釈可能性の観点から、固定アクティベーションアーキテクチャよりも優れていますが、その計算複雑性は、エネルギー制約のあるエッジAIデプロイメントにおいて重要な課題を引き起こします。
従来のCPU/GPUは、高次のアクティベーションを評価する際に、遅延と電力コストを禁止し、超軽量エネルギー予算下でのデプロイ可能性を制限する。
エッジFPGAを用いた再構成可能なルックアップアーキテクチャを用いてこの問題に対処する。
微粒化量子化と適応的なルックアップテーブルを結合することにより、活性化率を保ちながらエネルギー集約演算を最小化する。
FPGA再構成は、学習した関数に対する動的ハードウェアの特殊化を可能にし、デプロイ後の適応性を必要とするエッジシステムにとって重要な利点である。
独特なアクティベーション関数が重要な役割を担うkan を用いた評価では,FPGA ベースの設計は計算速度が優れ,エッジ CPU や GPU に比べてエネルギー効率が 10^4 ドル以上向上し,精度とフットプリントオーバーヘッドの最小化が図られている。
このブレークスルーは、我々のアプローチをエネルギークリティカルエッジAIの実用的な実現方法として位置づけており、計算強度と電力制約が従来の適応的アクティベーションネットワークの使用を妨げている。
関連論文リスト
- FPGA-based Acceleration for Convolutional Neural Networks: A Comprehensive Review [3.7810245817090906]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングの基本であり、さまざまなドメインにわたるアプリケーションを駆動する。
本稿では、CNN用に特別に設計されたFPGAベースのハードウェアアクセラレータの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-05-04T04:03:37Z) - Efficient Edge AI: Deploying Convolutional Neural Networks on FPGA with the Gemmini Accelerator [0.5714074111744111]
我々は、Gemminiアクセラレーターを用いて、FPGA(Field Programmable Gate Arrays)上にCNNを配置するためのエンドツーエンドワークフローを提示する。
Xilinx ZCU102 FPGA 上で YOLOv7 モデルを36.5 GOP/s/W のエネルギー効率で実装することにより,リアルタイムな性能を実現することができた。
論文 参考訳(メタデータ) (2024-08-14T09:24:00Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - RepAct: The Re-parameterizable Adaptive Activation Function [31.238011686165596]
RepActは、エッジデバイスの計算制限内で軽量ニューラルネットワークを最適化するための適応アクティベーション関数である。
画像分類や物体検出などのタスクで評価すると、RepActは従来のアクティベーション機能を上回った。
論文 参考訳(メタデータ) (2024-06-28T08:25:45Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Power Constrained Autotuning using Graph Neural Networks [1.7188280334580197]
本稿では,最新のプロセッサ上での科学応用の性能,パワー,エネルギー効率を向上させるための,グラフニューラルネットワークに基づく新しい自動チューニング手法を提案する。
提案手法では,標準のOpenMP構成に対して,平均的な幾何的性能改善が25%以上,13%以上となる,異なる電力制約でOpenMP構成を識別する。
論文 参考訳(メタデータ) (2023-02-22T16:06:00Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。