論文の概要: Enabling Physical AI at the Edge: Hardware-Accelerated Recovery of System Dynamics
- arxiv url: http://arxiv.org/abs/2512.23767v1
- Date: Mon, 29 Dec 2025 04:51:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.152789
- Title: Enabling Physical AI at the Edge: Hardware-Accelerated Recovery of System Dynamics
- Title(参考訳): エッジでの物理AIの実現: ハードウェアによるシステムダイナミクスの回復
- Authors: Bin Xu, Ayan Banerjee, Sandeep Gupta,
- Abstract要約: textbfMERINDA (Model Recovery in Reconfigurable Dynamic Architecture) はFPGAが加速するMRフレームワークで、リソース制約のあるデバイスで物理AIを実用的なものにするために設計された。
MERINDAは、自律システムのリアルタイム監視のために、正確で説明可能なMRをエッジに持ち込むことができることを示す。
- 参考スコア(独自算出の注目度): 4.058950730052848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical AI at the edge -- enabling autonomous systems to understand and predict real-world dynamics in real time -- requires hardware-efficient learning and inference. Model recovery (MR), which identifies governing equations from sensor data, is a key primitive for safe and explainable monitoring in mission-critical autonomous systems operating under strict latency, compute, and power constraints. However, state-of-the-art MR methods (e.g., EMILY and PINN+SR) rely on Neural ODE formulations that require iterative solvers and are difficult to accelerate efficiently on edge hardware. We present \textbf{MERINDA} (Model Recovery in Reconfigurable Dynamic Architecture), an FPGA-accelerated MR framework designed to make physical AI practical on resource-constrained devices. MERINDA replaces expensive Neural ODE components with a hardware-friendly formulation that combines (i) GRU-based discretized dynamics, (ii) dense inverse-ODE layers, (iii) sparsity-driven dropout, and (iv) lightweight ODE solvers. The resulting computation is structured for streaming parallelism, enabling critical kernels to be fully parallelized on the FPGA. Across four benchmark nonlinear dynamical systems, MERINDA delivers substantial gains over GPU implementations: \textbf{114$\times$ lower energy} (434~J vs.\ 49{,}375~J), \textbf{28$\times$ smaller memory footprint} (214~MB vs.\ 6{,}118~MB), and \textbf{1.68$\times$ faster training}, while matching state-of-the-art model-recovery accuracy. These results demonstrate that MERINDA can bring accurate, explainable MR to the edge for real-time monitoring of autonomous systems.
- Abstract(参考訳): エッジにおける物理的なAI -- 自律的なシステムがリアルタイムで現実世界のダイナミクスを理解し、予測できるようにするには、ハードウェア効率のよい学習と推論が必要です。
モデルリカバリ(MR)は、センサーデータから制御方程式を識別するものであり、厳格なレイテンシ、計算、電力制約の下で運用されるミッションクリティカルな自律システムにおいて、安全かつ説明可能な監視を行うための重要なプリミティブである。
しかし、最先端のMR法(例えばEMILYとPINN+SR)は繰り返し解法を必要とするニューラルODEの定式化に依存しており、エッジハードウェア上で効率的に高速化することが難しい。
本稿では,資源制約されたデバイス上での物理AIの実現を目的としたFPGAアクセラレーション型MRフレームワークであるtextbf{MERINDA}(再構成可能な動的アーキテクチャにおけるモデル回復)を提案する。
MERINDAは高価なNeural ODEコンポーネントをハードウェアフレンドリーな定式化に置き換える
(i)GRUに基づく離散力学
(ii)高密度逆ODE層
(三)疎水性による脱落、及び
(4)軽量ODEソルバ。
結果の計算はストリーミング並列性のために構成され、クリティカルカーネルをFPGA上で完全に並列化することができる。
4つのベンチマークの非線形力学系で、MERINDAはGPUの実装よりも大幅に向上する: \textbf{114$\times$ lower energy} (434~J vs. J)。
49{,}375~J), \textbf{28$\times$ smaller memory footprint} (214~MB vs。
6{,}118~MB) と \textbf{1.68$\times$ faster training} は、最先端のモデル復元精度と一致する。
これらの結果は,MERINDAが自律システムのリアルタイム監視のために,正確で説明可能なMRをエッジにもたらすことを実証している。
関連論文リスト
- Hardware Software Optimizations for Fast Model Recovery on Reconfigurable Architectures [4.058950730052848]
本稿では,FPGAを高速化したMRフレームワークであるMERINDAについて述べる。
一般的なMRワークロードでは、MERINDAはFPGAベースのLCCベースラインよりも6.3倍少ないサイクルを提供する。
論文 参考訳(メタデータ) (2025-12-05T19:38:34Z) - Model Recovery at the Edge under Resource Constraints for Physical AI [4.415937510184061]
我々は,反復解法をNODEと等価な並列化可能なニューラルアーキテクチャに置き換える,FPGA加速モデル回復フレームワークを提案する。
MERINDAはモバイルGPUの約11倍のDRAM使用率と2.2倍のランタイムを実現している。
論文 参考訳(メタデータ) (2025-12-01T23:54:23Z) - Improving Long-Range Interactions in Graph Neural Simulators via Hamiltonian Dynamics [71.53370807809296]
最近のグラフニューラルシミュレータ(GNS)は、グラフ構造化データ上での動的学習によりシミュレーションを加速する。
ハミルトン力学の原理に基づいて構築されたグラフベースニューラルネットワークであるIGNS(Information-serving Graph Neural Simulator)を提案する。
IGNSは最先端のGNSを一貫して上回り、挑戦的で複雑な力学系の下で高い精度と安定性を達成する。
論文 参考訳(メタデータ) (2025-11-11T12:53:56Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning for Compression [1.0356366043809717]
モデル圧縮技術として特別に設計された記号回帰に対するニューラルネットワークアプローチである$ttSymbolNet$を提案する。
このフレームワークは、単一のトレーニングプロセスにおいてモデルウェイト、入力特徴、数学的演算子の動的プルーニングを可能にする。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Symbolic Regression on FPGAs for Fast Machine Learning Inference [2.0920303420933273]
高エネルギー物理コミュニティは、FPGA(Field-Programmable Gate Arrays)上に機械学習ベースのソリューションをデプロイする可能性を探っている
シンボリックレグレッション(SR)と呼ばれる機械学習技術を利用した新しいエンドツーエンドプロシージャを提案する。
提案手法は,最大で5 nsまでの実行時間を最大13倍に抑えながら,90%以上の近似精度を維持した推論モデルを用いて3層ニューラルネットワークを近似できることを示す。
論文 参考訳(メタデータ) (2023-05-06T17:04:02Z) - RAMP-Net: A Robust Adaptive MPC for Quadrotors via Physics-informed
Neural Network [6.309365332210523]
本稿では、単純なODEとデータの一部をトレーニングしたニューラルネットワークを用いて、PINN(RAMP-Net)を介してロバスト適応MPCフレームワークを提案する。
我々は,SOTA回帰に基づく2つのMPC法と比較して,0.5~1.75m/sの追跡誤差を7.8%から43.2%,8.04%から61.5%削減した。
論文 参考訳(メタデータ) (2022-09-19T16:11:51Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。