論文の概要: Implémentation Efficiente de Fonctions de Convolution sur FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales
- arxiv url: http://arxiv.org/abs/2510.15930v1
- Date: Fri, 03 Oct 2025 15:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.45083
- Title: Implémentation Efficiente de Fonctions de Convolution sur FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales
- Title(参考訳): 畳み込み型FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales の活用
- Authors: Philippe Magalhães, Virginie Fresse, Benoît Suffran, Olivier Alata,
- Abstract要約: フィールドプログラマブルゲートアレイ(FPGA)に畳み込みニューラルネットワーク(CNN)を実装することが、GPUに代わる有望な選択肢として浮上している。
本稿では、FPGAの実装を最適化し、利用可能なリソースに適応するために設計された畳み込みブロックのライブラリを提案する。
また、FPGA資源利用を予測する数学的モデルを開発するための方法論的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.3966519779235704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implementing convolutional neural networks (CNNs) on field-programmable gate arrays (FPGAs) has emerged as a promising alternative to GPUs, offering lower latency, greater power efficiency and greater flexibility. However, this development remains complex due to the hardware knowledge required and the long synthesis, placement and routing stages, which slow down design cycles and prevent rapid exploration of network configurations, making resource optimisation under severe constraints particularly challenging. This paper proposes a library of configurable convolution Blocks designed to optimize FPGA implementation and adapt to available resources. It also presents a methodological framework for developing mathematical models that predict FPGA resources utilization. The approach is validated by analyzing the correlation between the parameters, followed by error metrics. The results show that the designed blocks enable adaptation of convolution layers to hardware constraints, and that the models accurately predict resource consumption, providing a useful tool for FPGA selection and optimized CNN deployment.
- Abstract(参考訳): フィールドプログラマブルゲートアレイ(FPGA)に畳み込みニューラルネットワーク(CNN)を実装することがGPUの有望な代替手段として現れ、レイテンシの低減、電力効率の向上、柔軟性の向上を実現している。
しかし、この開発はハードウェアの知識と長い合成、配置、ルーティングの段階のために複雑であり、設計サイクルを遅くし、ネットワーク構成の迅速な探索を防ぎ、特に厳しい制約下で資源最適化を困難にしている。
本稿ではFPGAの実装を最適化し,利用可能なリソースに適応するために設計された,構成可能な畳み込みブロックのライブラリを提案する。
また、FPGA資源利用を予測する数学的モデルを開発するための方法論的フレームワークを提案する。
この手法はパラメータ間の相関を解析して検証され、次にエラーメトリクスが続く。
その結果、設計したブロックはハードウェアの制約に畳み込み層の適応を可能にし、モデルがリソース消費を正確に予測し、FPGAの選択と最適化されたCNNデプロイメントに有用なツールを提供することを示した。
関連論文リスト
- Plain Transformers are Surprisingly Powerful Link Predictors [57.01966734467712]
リンク予測はグラフ機械学習における中核的な課題であり、リッチで複雑なトポロジ的依存関係をキャプチャするモデルを必要とする。
グラフニューラルネットワーク(GNN)が標準的なソリューションであるのに対して、最先端のパイプラインは明示的な構造やメモリ集約的なノードの埋め込みに依存していることが多い。
本報告では,手作りのプリミティブに置き換えるエンコーダのみのプレーントランスであるPENCILについて,サンプリングしたローカルサブグラフに注目する。
論文 参考訳(メタデータ) (2026-02-02T02:45:52Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - FPGA-based Acceleration for Convolutional Neural Networks: A Comprehensive Review [3.7810245817090906]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングの基本であり、さまざまなドメインにわたるアプリケーションを駆動する。
本稿では、CNN用に特別に設計されたFPGAベースのハードウェアアクセラレータの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-05-04T04:03:37Z) - AI-Driven Optimization of Hardware Overlay Configurations [0.0]
本稿では,FPGAオーバレイ構成を最適化するAI駆動方式を提案する。
機械学習技術を活用することで、ハードウェアコンパイル前のさまざまな構成の実現可能性と効率を予測する。
論文 参考訳(メタデータ) (2025-03-08T22:34:47Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Efficient Compilation and Mapping of Fixed Function Combinational Logic
onto Digital Signal Processors Targeting Neural Network Inference and
Utilizing High-level Synthesis [3.83610794195621]
ニューラルネットワーク(NN)アクセラレータの性能向上に向けた最近の取り組みは、固定関数の組み合わせ論理に依存する論理ベースのNN推論の新しいトレンドを生み出している。
本稿では,FPGA上のDSPに固定関数の組み合わせ論理を応用した,NNのコンパイルとマッピングのための革新的な設計と最適化手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T20:11:59Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。