論文の概要: FPGA or GPU? Analyzing comparative research for application-specific guidance
- arxiv url: http://arxiv.org/abs/2511.06565v1
- Date: Sun, 09 Nov 2025 22:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.003533
- Title: FPGA or GPU? Analyzing comparative research for application-specific guidance
- Title(参考訳): FPGAかGPUか?アプリケーション固有のガイダンスの比較研究
- Authors: Arnab A Purkayastha, Jay Tharwani, Shobhit Aggarwal,
- Abstract要約: 本稿では,様々な研究論文から洞察を合成し,ドメイン固有アプリケーションに適したアクセラレーションを選択する際にユーザを指導する。
レビューされた研究を分類し、主要なパフォーマンス指標を分析することで、FPGAとGPUの長所、限界、理想的なユースケースを強調します。
この発見は、研究者や実践者がパフォーマンス、エネルギー効率、プログラム可能性のトレードオフをナビゲートするのに役立つ、実用的なレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing complexity of computational workloads has amplified the need for efficient and specialized hardware accelerators. Field Programmable Gate Arrays (FPGAs) and Graphics Processing Units (GPUs) have emerged as prominent solutions, each excelling in specific domains. Although there is substantial research comparing FPGAs and GPUs, most of the work focuses primarily on performance metrics, offering limited insight into the specific types of applications that each accelerator benefits the most. This paper aims to bridge this gap by synthesizing insights from various research articles to guide users in selecting the appropriate accelerator for domain-specific applications. By categorizing the reviewed studies and analyzing key performance metrics, this work highlights the strengths, limitations, and ideal use cases for FPGAs and GPUs. The findings offer actionable recommendations, helping researchers and practitioners navigate trade-offs in performance, energy efficiency, and programmability.
- Abstract(参考訳): 計算ワークロードの複雑さの増大は、効率的で特殊なハードウェアアクセラレータの必要性を増幅している。
Field Programmable Gate Arrays (FPGA) と Graphics Processing Units (GPU) は、それぞれが特定のドメインで優れた卓越したソリューションとして登場した。
FPGAとGPUの比較にはかなりの研究があるが、ほとんどの研究はパフォーマンスメトリクスに重点を置いており、それぞれのアクセラレータが最も恩恵を受ける特定のタイプのアプリケーションについての限られた洞察を提供している。
本稿では,様々な研究論文から洞察を合成し,ユーザに対して,ドメイン固有のアプリケーションに適したアクセラレータの選択を指導することで,このギャップを埋めることを目的とする。
レビューされた研究を分類し、主要なパフォーマンス指標を分析することで、FPGAやGPUの長所、限界、理想的なユースケースを強調します。
この発見は、研究者や実践者がパフォーマンス、エネルギー効率、プログラム可能性のトレードオフをナビゲートするのに役立つ、実用的なレコメンデーションを提供する。
関連論文リスト
- FPGA-based Acceleration for Convolutional Neural Networks: A Comprehensive Review [3.7810245817090906]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングの基本であり、さまざまなドメインにわたるアプリケーションを駆動する。
本稿では、CNN用に特別に設計されたFPGAベースのハードウェアアクセラレータの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-05-04T04:03:37Z) - Real-Time Semantic Segmentation of Aerial Images Using an Embedded U-Net: A Comparison of CPU, GPU, and FPGA Workflows [0.0]
本研究では,航空画像のリアルタイムセマンティックセグメンテーションに最適化された軽量なU-Netモデルを提案する。
実世界のデータセット上でのU-Netの精度を維持しながら、モデルのパラメータと乗算(MAC)操作を16。
論文 参考訳(メタデータ) (2025-03-07T08:33:28Z) - Navigating Intelligence: A Survey of Google OR-Tools and Machine Learning for Global Path Planning in Autonomous Vehicles [49.1574468325115]
ROMIEと呼ばれる自律的な採鉱ロボットには,グローバルパスプランニングが不可欠である。
Q-Learningは最適な戦略であり、データセット全体の最適解から平均1.2%しか逸脱せず、優れた効率を示す。
論文 参考訳(メタデータ) (2025-03-05T10:12:22Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - The Feasibility of Implementing Large-Scale Transformers on Multi-FPGA Platforms [1.0636475069923585]
大規模機械学習アプリケーションに複数のFPGAを使用する方法を検討するメリットがある。
マルチFPGAアプリケーションの開発とデプロイに一般的に受け入れられるフローは存在しない。
スケーラブルなマルチFPGAプラットフォームと,大規模アプリケーションをプラットフォームにマップするツールを開発しました。
論文 参考訳(メタデータ) (2024-04-24T19:25:58Z) - Parameter-Efficient Fine-Tuning for Large Models: A Comprehensive Survey [18.00772798876708]
PEFT(Efficient Fine-Tuning)は、様々な下流タスクに対して大きなモデルを効率的に調整することで、実用的なソリューションを提供する。
PEFTは、訓練済みの大規模モデルのパラメータを特定のタスクやドメインに適応させるプロセスを指す。
本稿では,様々なPEFTアルゴリズムの総合的な研究を行い,その性能と計算オーバーヘッドについて検討する。
論文 参考訳(メタデータ) (2024-03-21T17:55:50Z) - Performance Tuning for GPU-Embedded Systems: Machine-Learning-based and
Analytical Model-driven Tuning Methodologies [0.0]
本研究は,分析モデル駆動型チューニング手法と機械学習(ML)に基づくチューニング手法を紹介する。
NVIDIA JetsonシステムにおけるBPLGライブラリの異なる並列プレフィックス実装のための2つのチューニング手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-10-24T22:09:03Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Design optimization for high-performance computing using FPGA [0.0]
我々は、CIFARでトレーニングされたResNet20を使用して、Tensil AIのオープンソース推論アクセラレーターを最大性能に最適化する。
CIFARテストデータセットを実行すると、元の32ビット浮動小数点から丸めると、ほとんど精度が低下する。
提案した加速器は、100MHzで5.21Wのオンチップ消費電力を持つ21.12ギガ/秒(GOP/s)のスループットを実現する。
論文 参考訳(メタデータ) (2023-04-24T22:20:42Z) - Semantic Scene Segmentation for Robotics Applications [51.66271681532262]
様々な設定の下で,最も成功したセマンティックシーンセグメンテーションモデルの動作を,展開(推論)速度の観点から検討する。
この研究の目的は、ロボット工学の応用要件に最も適合しているものを選択するために、現在の最先端セグメンテーションモデルの比較研究を提供することである。
論文 参考訳(メタデータ) (2021-08-25T08:55:20Z) - JUWELS Booster -- A Supercomputer for Large-Scale AI Research [79.02246047353273]
本稿では、最近J'ulich Supercomputing Centerに委託された高性能コンピューティングシステムであるJUWELS Boosterを紹介する。
システムアーキテクチャ、並列性、分散モデルトレーニング、その優れたパフォーマンスを示すベンチマークについて詳述する。
論文 参考訳(メタデータ) (2021-06-30T21:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。