論文の概要: Evaluating Four FPGA-accelerated Space Use Cases based on Neural Network Algorithms for On-board Inference
- arxiv url: http://arxiv.org/abs/2603.14091v1
- Date: Sat, 14 Mar 2026 19:32:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.592891
- Title: Evaluating Four FPGA-accelerated Space Use Cases based on Neural Network Algorithms for On-board Inference
- Title(参考訳): オンボード推論のためのニューラルネットワークアルゴリズムによるFPGA加速空間利用事例の評価
- Authors: Pedro Antunes, Muhammad Ihsan Al Hafiz, Jonah Ekelund, Ekaterina Dineva, George Miloshevich, Panagiotis Gonidakis, Artur Podobas,
- Abstract要約: この研究は、AMD ZCU104ボード上の4つの空間ユースケースにわたるニューラルネットワーク(NN)のFPGAアクセラレーションを評価する。
Vitis AI(AMD DPU)とVitis HLSを使用して推論を実装し、スループットとエネルギを定量化し、デプロイメントに関連するツールチェーンとアーキテクチャ制約を公開する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Space missions increasingly deploy high-fidelity sensors that produce data volumes exceeding onboard buffering and downlink capacity. This work evaluates FPGA acceleration of neural networks (NNs) across four space use cases on the AMD ZCU104 board. We use Vitis AI (AMD DPU) and Vitis HLS to implement inference, quantify throughput and energy, and expose toolchain and architectural constraints relevant to deployment. Vitis AI achieves up to 34.16$\times$ higher inference rate than the embedded ARM CPU baseline, while custom HLS designs reach up to 5.4$\times$ speedup and add support for operators (e.g., sigmoids, 3D layers) absent in the DPU. For these implementations, measured MPSoC inference power spans 1.5-6.75 W, reducing energy per inference versus CPU execution in all use cases. These results show that NN FPGA acceleration can enable onboard filtering, compression, and event detection, easing downlink pressure in future missions.
- Abstract(参考訳): 宇宙ミッションでは、バッファリングやダウンリンク容量を超えるデータ量を生成する高密度センサーをますます展開している。
この研究は、AMD ZCU104ボード上の4つの空間ユースケースにわたるニューラルネットワーク(NN)のFPGAアクセラレーションを評価する。
Vitis AI(AMD DPU)とVitis HLSを使用して推論を実装し、スループットとエネルギを定量化し、デプロイメントに関連するツールチェーンとアーキテクチャ制約を公開する。
Vitis AIは組み込みARM CPUベースラインよりも34.16$\times$高い推論レートを達成する一方、カスタムHLS設計は最大5.4$\times$スピードアップに達し、DPUにない演算子(例えば、シグミド、3D層)のサポートを追加する。
これらの実装では、測定されたMPSoC推論パワーは1.5-6.75Wの範囲で、すべてのユースケースにおいて、推論当たりのエネルギを減らしている。
これらの結果から,NN FPGAアクセラレーションは,将来のミッションにおけるダウンリンク圧力を緩和し,オンボードフィルタリング,圧縮,イベント検出を可能にすることが示唆された。
関連論文リスト
- Low-Latency FPGA Control System for Real-Time Neural Network Processing in CCD-Based Trapped-Ion Qubit Measurement [5.983860563083656]
この研究は、フィールドプログラマブルゲートアレイ(FPGA)とグラフィックス処理ユニット(GPU)におけるディープニューラルネットワーク(DNN)ベースの量子ビット検出のレイテンシをベンチマークする。
FPGAソリューションは、電子多重化チャージ結合デバイス(EMCCD)とその後のデータ処理ロジックを直接インターフェースし、バッファリングとインターフェースのオーバーヘッドをなくす。
ハードウェアにマルチレイヤパーセプトロン(MLP)モデルとビジョントランスフォーマー(ViT)モデルを配置し,測定性能を評価する。
論文 参考訳(メタデータ) (2025-12-17T18:34:00Z) - Exact Nearest-Neighbor Search on Energy-Efficient FPGA Devices [10.725513609195]
本稿では,FPGAの低レベル構成を同一とする2つの異なるエネルギー効率ソリューションを提案する。
最初のソリューションは、バッチのクエリをストリームデータセット上で並列に処理することで、システムのスループットを最大化する。
2つ目は、各kNN受信クエリをインメモリデータセット上で並列に処理することで、レイテンシを最小限にする。
論文 参考訳(メタデータ) (2025-10-19T07:29:16Z) - FPGA-based Acceleration of Neural Network for Image Classification using Vitis AI [0.0]
我々は,Xilinx Zynq UltraScale+ MPSoC ZCU104 FPGA評価ボード上でVitis-AIを用いて,CIFAR-10データセットを用いた画像分類のためのCNNを高速化する。
この作業は3.33-5.82倍のスループットと3.39-6.30倍のエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-12-30T14:26:17Z) - Low-latency machine learning FPGA accelerator for multi-qubit-state discrimination [1.6773398825542363]
量子ビット状態を測定することは、量子コンピューティングにおいて基本的ながエラーを起こしやすい操作である。
ここでは、ニューラルネットワークをフィールドプログラマブルゲートアレイ(FPGA)上に展開するための統合的なアプローチを用いる。
マルチキュービット読み出しに完全接続型ニューラルネットワークアクセラレータを実装するのが有利であることを示す。
論文 参考訳(メタデータ) (2024-07-04T11:34:43Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Exploiting FPGA Capabilities for Accelerated Biomedical Computing [0.0]
本研究では、フィールドプログラマブルゲートアレイ(FPGA)を用いたECG信号解析のための高度なニューラルネットワークアーキテクチャを提案する。
我々は、トレーニングと検証にMIT-BIH Arrhythmia Databaseを使用し、堅牢性を改善するためにガウスノイズを導入した。
この研究は最終的に、様々なアプリケーションのためのFPGA上でのニューラルネットワーク性能を最適化するためのガイドを提供する。
論文 参考訳(メタデータ) (2023-07-16T01:20:17Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。