論文の概要: Real-Time, Energy-Efficient, Sampling-Based Optimal Control via FPGA Acceleration
- arxiv url: http://arxiv.org/abs/2601.17231v1
- Date: Fri, 23 Jan 2026 23:47:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.927178
- Title: Real-Time, Energy-Efficient, Sampling-Based Optimal Control via FPGA Acceleration
- Title(参考訳): FPGA加速による実時間, エネルギー効率, サンプリングに基づく最適制御
- Authors: Tanmay Desai, Brian Plancher, R. Iris Bahar,
- Abstract要約: FPGAに最適化されたMPPI設計は、微細な並列性を露呈し、同期ボトルネックをなくす。
これにより、組み込みGPUとCPUの最適化実装よりも平均3.1倍から7.5倍のスピードアップを実現し、同時にエネルギー使用量の2.5倍から5.4倍の削減を実現した。
- 参考スコア(独自算出の注目度): 8.086534156824486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous mobile robots (AMRs), used for search-and-rescue and remote exploration, require fast and robust planning and control schemes. Sampling-based approaches for Model Predictive Control, especially approaches based on the Model Predictive Path Integral Control (MPPI) algorithm, have recently proven both to be highly effective for such applications and to map naturally to GPUs for hardware acceleration. However, both GPU and CPU implementations of such algorithms can struggle to meet tight energy and latency budgets on battery-constrained AMR platforms that leverage embedded compute. To address this issue, we present an FPGA-optimized MPPI design that exposes fine-grained parallelism and eliminates synchronization bottlenecks via deep pipelining and parallelism across algorithmic stages. This results in an average 3.1x to 7.5x speedup over optimized implementations on an embedded GPU and CPU, respectively, while simultaneously achieving a 2.5x to 5.4x reduction in energy usage. These results demonstrate that FPGA architectures are a promising direction for energy-efficient and high-performance edge robotics.
- Abstract(参考訳): 自律移動ロボット(AMR)は、探索と救助と遠隔探査に使用され、高速で堅牢な計画と制御スキームを必要とする。
モデル予測制御のためのサンプリングベースのアプローチ、特にモデル予測経路積分制御(MPPI)アルゴリズムに基づくアプローチは、最近、そのようなアプリケーションに非常に効果的であることと、ハードウェアアクセラレーションのためにGPUに自然にマッピングすることが証明された。
しかし、そのようなアルゴリズムのGPUとCPUの実装は、組み込み計算を利用するバッテリ制約のあるAMRプラットフォーム上で、厳しいエネルギーとレイテンシの予算を満たすのに苦労する可能性がある。
この問題に対処するため,FPGAに最適化されたMPPI設計を提案する。
これにより、組み込みGPUとCPUの最適化実装よりも平均3.1倍から7.5倍のスピードアップを実現し、同時にエネルギー使用量の2.5倍から5.4倍の削減を実現した。
これらの結果はFPGAアーキテクチャがエネルギー効率と高性能なエッジロボティクスにとって有望な方向であることを証明している。
関連論文リスト
- AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization [84.25316984309725]
動的スパース構造とパラメータ効率のよいアダプタ(例えばLoRA)の統合は、大規模言語モデル(LLM)を拡張するための強力な技術である。
計算負荷は最小限に抑えられるが、計算のレイテンシが急上昇し、復号速度が2.5倍以上遅くなる。
AdaFuseはアルゴリズムと基盤となるハードウェアシステムとの緊密な協調設計に基づいて構築されたフレームワークで、効率的な動的アダプタ実行を実現する。
論文 参考訳(メタデータ) (2026-03-12T12:46:42Z) - Domain-specific Hardware Acceleration for Model Predictive Path Integral Control [4.032815486635335]
本稿では,モデル予測制御(MPC)とモデル予測経路積分(MPPI)制御のためのハードウェアアクセラレータを提案する。
結果,MPPIカスタムアクセラレータでは,GPUベースのMPPI実装よりも正確なトラジェクトリが可能であることがわかった。
論文 参考訳(メタデータ) (2026-01-17T15:44:52Z) - Eliminating Multi-GPU Performance Taxes: A Systems Approach to Efficient Distributed LLMs [61.953548065938385]
分析フレームワークとして'3つの税'(バルク同期、カーネル間データローカリティ、カーネルローンチオーバーヘッド)を紹介した。
我々は、分散GPU実行におけるキー非効率に対処するために、厳密なBSPモデルを超えて移動することを提案する。
BSPベースのアプローチによるエンドツーエンドのレイテンシの10-20%の高速化を観察する。
論文 参考訳(メタデータ) (2025-11-04T01:15:44Z) - Exact Nearest-Neighbor Search on Energy-Efficient FPGA Devices [10.725513609195]
本稿では,FPGAの低レベル構成を同一とする2つの異なるエネルギー効率ソリューションを提案する。
最初のソリューションは、バッチのクエリをストリームデータセット上で並列に処理することで、システムのスループットを最大化する。
2つ目は、各kNN受信クエリをインメモリデータセット上で並列に処理することで、レイテンシを最小限にする。
論文 参考訳(メタデータ) (2025-10-19T07:29:16Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Many-body computing on Field Programmable Gate Arrays [5.3808713424582395]
我々は、量子多体計算を行うために、FPGA(Field Programmable Gate Arrays)の機能を利用する。
これにより、モンテカルロアルゴリズムのCPUベースの計算に比べて10倍の高速化が達成された。
FPGAを多体基底状態計算のための典型的なテンソルネットワークアルゴリズムの高速化に利用した。
論文 参考訳(メタデータ) (2024-02-09T14:01:02Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Towards real-time and energy efficient Siamese tracking -- a
hardware-software approach [0.0]
我々は、よく知られた完全接続型シームズトラッカー(SiamFC)のハードウェア・ソフトウェア実装を提案する。
我々は、FINNアクセラレーターのための量子化シームズネットワークを開発し、アルゴリズム・加速器の共設計を用いて設計空間探索を行った。
我々のネットワークでは、Zynq UltraScale+MPSoC ZCU104のプログラム可能な論理部で動作し、約50フレーム/秒の処理を、その浮動小数点演算と同等の精度で達成した。
論文 参考訳(メタデータ) (2022-05-21T18:31:07Z) - Accelerated Charged Particle Tracking with Graph Neural Networks on
FPGAs [0.0]
グラフニューラルネットワークに基づく荷電粒子追跡のためのアルゴリズムのFPGA実装を開発し,研究する。
CPUベースの実行の大幅な高速化が可能であり、将来的にはそのようなアルゴリズムを効果的に利用できるようになる可能性がある。
論文 参考訳(メタデータ) (2020-11-30T18:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。