論文の概要: Enabling Long FFT Convolutions on Memory-Constrained FPGAs via Chunking
- arxiv url: http://arxiv.org/abs/2601.06065v1
- Date: Sun, 28 Dec 2025 00:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.617587
- Title: Enabling Long FFT Convolutions on Memory-Constrained FPGAs via Chunking
- Title(参考訳): チャンキングによるメモリ制約FPGA上の長いFFT畳み込み
- Authors: Peter Wang, Neelesh Gupta, Viktor Prasanna,
- Abstract要約: 本稿では,2.8MBBRAMのAlveo U200FPGA上で450K長フィルタ畳み込みを450K長シーケンスで実現するチャンクFFT畳み込み手法を提案する。
スループットはチャンクサイズに比例してスケールするが、長いシーケンスでは7%程度低下する。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need for long-context reasoning has led to alternative neural network architectures besides Transformers and self-attention, a popular model being Hyena, which employs causal 1D-convolutions implemented with FFTs. Long convolutions enable efficient global context mixing, but requirements for intermediate results exceed the 2-3 MB Block RAM capacity of FPGAs. We present a chunked FFT convolution approach enabling 450K length sequence by 450K length filter convolutions on an Alveo U200 FPGA with 2.8 MB BRAM through chunking and overlap-add reconstruction. We find that throughput scales proportionally with chunk size while degrading minimally by 7% for our longest sequences, demonstrating that careful memory management enables deployment of long-context primitives on edge FPGAs without sacrificing performance.
- Abstract(参考訳): 長いコンテキスト推論の必要性により、トランスフォーマーや自己注意以外の代替のニューラルネットワークアーキテクチャが生まれ、人気のあるモデルとしてHyenaがあり、FFTで実装された因果1D-畳み込みを採用している。
長い畳み込みは効率的なグローバルなコンテキスト混合を可能にするが、中間結果の要求はFPGAの2~3MBのブロックRAM容量を超える。
本稿では,2.8MBのBRAMを持つAlveo U200FPGA上で,450K長のフィルタ畳み込みを450K長で実現するチャンキングFFT畳み込み手法を提案する。
スループットはチャンクサイズに比例してスケールし、長いシーケンスでは7%程度低下し、注意深いメモリ管理により、パフォーマンスを犠牲にすることなく、エッジFPGAに長文プリミティブをデプロイできることを示した。
関連論文リスト
- InfLLM-V2: Dense-Sparse Switchable Attention for Seamless Short-to-Long Adaptation [56.694702609077495]
ロングシーケンス処理は、現代の大規模言語モデルにとって重要な機能である。
InfLLM-V2は、ショートシーケンスからロングシーケンスまでのモデルをシームレスに適応する訓練可能なスパースアテンションフレームワークである。
実験では、InfLLM-V2は高密度の注意より4$times$速いが、98.1%と99.7%のパフォーマンスを維持している。
論文 参考訳(メタデータ) (2025-09-29T12:08:33Z) - On-Device Qwen2.5: Efficient LLM Inference with Model Compression and Hardware Acceleration [1.9965524232168244]
本稿では,Xilinx Kria KV260エッジプラットフォーム上にQwen2.5-0.5Bモデルをデプロイするための効率的なフレームワークを提案する。
我々は,計算集約的な演算をFPGAにインテリジェントにオフロードし,CPUを軽量なタスクに活用するハイブリッド実行戦略を提案する。
本フレームワークは,従来のモデルと比較して55.08%のモデル圧縮率を実現し,5.1トークン/秒で出力し,2.8トークン/秒のベースライン性能を上回った。
論文 参考訳(メタデータ) (2025-04-24T08:50:01Z) - Runtime Tunable Tsetlin Machines for Edge Inference on eFPGAs [0.2294388534633318]
eFPGAはエッジ機械学習(ML)アプリケーションのハードウェアアクセラレータを低消費電力で設計することができる。
限られたeFPGA論理とメモリは計算能力とモデルサイズを著しく制限した。
提案するeFPGAアクセラレータは、リソース使用量の最小化と、スループットに対するオンフィールドリカバリの柔軟性の実現に重点を置いている。
論文 参考訳(メタデータ) (2025-02-10T12:49:22Z) - FAMOUS: Flexible Accelerator for the Attention Mechanism of Transformer on UltraScale+ FPGAs [0.0]
Transformer Neural Network(TNN)は、自然言語処理(NLP)、機械翻訳、コンピュータビジョン(CV)など、幅広いアプリケーション領域に応用されている。
本稿では、フィールドプログラマブルゲートアレイ(FPGA)上でのTNNの重み付きマルチヘッドアテンション計算のためのフレキシブルハードウェアアクセラレータである textitFamous を提案する。
並列性を改善し、レイテンシを低減するために、処理要素とオンチップメモリの高利用に最適化されている。
論文 参考訳(メタデータ) (2024-09-21T05:25:46Z) - Efficient Video Object Segmentation via Modulated Cross-Attention Memory [123.12273176475863]
頻繁なメモリ拡張を必要とせず、時間的滑らかさをモデル化するトランスフォーマーベースの手法MAVOSを提案する。
我々のMAVOSは、単一のV100 GPU上で37フレーム/秒(FPS)で動作しながら、J&Fスコア63.3%を達成する。
論文 参考訳(メタデータ) (2024-03-26T17:59:58Z) - BurstAttention: An Efficient Distributed Attention Framework for Extremely Long Sequences [96.74779792715819]
本稿では,BurstAttention'という分散アテンションフレームワークを提案し,メモリアクセスと通信操作を最適化する。
異なる長さ設定下での実験結果は、BurstAttentionが長いシーケンスを処理する上で大きな利点があることを示している。
論文 参考訳(メタデータ) (2024-03-14T12:51:58Z) - FlashFFTConv: Efficient Convolutions for Long Sequences with Tensor
Cores [18.016204763652553]
長いフィルタを持つ畳み込みモデルは、多くの長いシーケンスタスクにおいて最先端の推論能力を示している。
Fast Fourier Transform (FFT) は、長い畳み込みを$O(N logN)$ time in sequence length $N$で実行可能にするが、ハードウェア利用は乏しい。
本稿では,FFT畳み込みの最適化方法について検討する。
論文 参考訳(メタデータ) (2023-11-10T07:33:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。