論文の概要: Implémentation Efficiente de Fonctions de Convolution sur FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales
- arxiv url: http://arxiv.org/abs/2510.15930v1
- Date: Fri, 03 Oct 2025 15:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.45083
- Title: Implémentation Efficiente de Fonctions de Convolution sur FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales
- Title(参考訳): 畳み込み型FPGA à l'Aide de Blocs Paramétrables et d'Approximations Polynomiales の活用
- Authors: Philippe Magalhães, Virginie Fresse, Benoît Suffran, Olivier Alata,
- Abstract要約: フィールドプログラマブルゲートアレイ(FPGA)に畳み込みニューラルネットワーク(CNN)を実装することが、GPUに代わる有望な選択肢として浮上している。
本稿では、FPGAの実装を最適化し、利用可能なリソースに適応するために設計された畳み込みブロックのライブラリを提案する。
また、FPGA資源利用を予測する数学的モデルを開発するための方法論的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.3966519779235704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implementing convolutional neural networks (CNNs) on field-programmable gate arrays (FPGAs) has emerged as a promising alternative to GPUs, offering lower latency, greater power efficiency and greater flexibility. However, this development remains complex due to the hardware knowledge required and the long synthesis, placement and routing stages, which slow down design cycles and prevent rapid exploration of network configurations, making resource optimisation under severe constraints particularly challenging. This paper proposes a library of configurable convolution Blocks designed to optimize FPGA implementation and adapt to available resources. It also presents a methodological framework for developing mathematical models that predict FPGA resources utilization. The approach is validated by analyzing the correlation between the parameters, followed by error metrics. The results show that the designed blocks enable adaptation of convolution layers to hardware constraints, and that the models accurately predict resource consumption, providing a useful tool for FPGA selection and optimized CNN deployment.
- Abstract(参考訳): フィールドプログラマブルゲートアレイ(FPGA)に畳み込みニューラルネットワーク(CNN)を実装することがGPUの有望な代替手段として現れ、レイテンシの低減、電力効率の向上、柔軟性の向上を実現している。
しかし、この開発はハードウェアの知識と長い合成、配置、ルーティングの段階のために複雑であり、設計サイクルを遅くし、ネットワーク構成の迅速な探索を防ぎ、特に厳しい制約下で資源最適化を困難にしている。
本稿ではFPGAの実装を最適化し,利用可能なリソースに適応するために設計された,構成可能な畳み込みブロックのライブラリを提案する。
また、FPGA資源利用を予測する数学的モデルを開発するための方法論的フレームワークを提案する。
この手法はパラメータ間の相関を解析して検証され、次にエラーメトリクスが続く。
その結果、設計したブロックはハードウェアの制約に畳み込み層の適応を可能にし、モデルがリソース消費を正確に予測し、FPGAの選択と最適化されたCNNデプロイメントに有用なツールを提供することを示した。
関連論文リスト
- FPGA-based Acceleration for Convolutional Neural Networks: A Comprehensive Review [3.7810245817090906]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングの基本であり、さまざまなドメインにわたるアプリケーションを駆動する。
本稿では、CNN用に特別に設計されたFPGAベースのハードウェアアクセラレータの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-05-04T04:03:37Z) - AI-Driven Optimization of Hardware Overlay Configurations [0.0]
本稿では,FPGAオーバレイ構成を最適化するAI駆動方式を提案する。
機械学習技術を活用することで、ハードウェアコンパイル前のさまざまな構成の実現可能性と効率を予測する。
論文 参考訳(メタデータ) (2025-03-08T22:34:47Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。