論文の概要: Model Recovery at the Edge under Resource Constraints for Physical AI
- arxiv url: http://arxiv.org/abs/2512.02283v1
- Date: Mon, 01 Dec 2025 23:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.654311
- Title: Model Recovery at the Edge under Resource Constraints for Physical AI
- Title(参考訳): 物理AIのための資源制約下におけるエッジモデル復元
- Authors: Bin Xu, Ayan Banerjee, Sandeep K. S. Gupta,
- Abstract要約: 我々は,反復解法をNODEと等価な並列化可能なニューラルアーキテクチャに置き換える,FPGA加速モデル回復フレームワークを提案する。
MERINDAはモバイルGPUの約11倍のDRAM使用率と2.2倍のランタイムを実現している。
- 参考スコア(独自算出の注目度): 4.415937510184061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model Recovery (MR) enables safe, explainable decision making in mission-critical autonomous systems (MCAS) by learning governing dynamical equations, but its deployment on edge devices is hindered by the iterative nature of neural ordinary differential equations (NODEs), which are inefficient on FPGAs. Memory and energy consumption are the main concerns when applying MR on edge devices for real-time operation. We propose MERINDA, a novel FPGA-accelerated MR framework that replaces iterative solvers with a parallelizable neural architecture equivalent to NODEs. MERINDA achieves nearly 11x lower DRAM usage and 2.2x faster runtime compared to mobile GPUs. Experiments reveal an inverse relationship between memory and energy at fixed accuracy, highlighting MERINDA's suitability for resource-constrained, real-time MCAS.
- Abstract(参考訳): モデル回復(MR)は、ミッションクリティカル自律システム(MCAS)において、動的方程式の制御を学ぶことによって安全かつ説明可能な意思決定を可能にするが、そのエッジデバイスへの展開は、FPGA上で非効率なニューラル常微分方程式(NODE)の反復性によって妨げられる。
リアルタイム操作のためにエッジデバイスにMRを適用する場合、メモリとエネルギー消費が主な関心事である。
我々は,反復解法をNODEと同等の並列化可能なニューラルアーキテクチャで置き換える新しいFPGA加速型MRフレームワークであるMERINDAを提案する。
MERINDAはモバイルGPUの約11倍のDRAM使用率と2.2倍のランタイムを実現している。
実験ではメモリとエネルギーの逆関係が一定精度で示され、MERINDAが資源に制約のあるリアルタイムMCASに適合していることが明らかになった。
関連論文リスト
- Merging Memory and Space: A State Space Neural Operator [8.378604588491394]
State Space Neural Operator (SS-NO) は時間依存偏微分方程式の解演算子を学習するためのコンパクトなアーキテクチャである。
SS-NOは多種多様なPDEベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-07-31T11:09:15Z) - The Larger the Merrier? Efficient Large AI Model Inference in Wireless Edge Networks [56.37880529653111]
大規模計算モデル(LAIM)サービスの需要は、従来のクラウドベースの推論から、低レイテンシでプライバシ保護のアプリケーションのためのエッジベースの推論へのパラダイムシフトを推進している。
本稿では,事前学習したLAIMをデバイス上のサブモデルとサーバ上のサブモデルに分割して配置するLAIM推論方式について検討する。
論文 参考訳(メタデータ) (2025-05-14T08:18:55Z) - RadioDiff-$k^2$: Helmholtz Equation Informed Generative Diffusion Model for Multi-Path Aware Radio Map Construction [76.24833675757033]
物理インフォームド・ジェネレーティブ・ラーニング・アプローチであるRadioDiff-$k2$を提案する。
提案するRadioDiff-$k2$フレームワークは,画像レベルのRM構成とローカライズタスクの両方において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2025-04-22T06:28:13Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - A Remedy to Compute-in-Memory with Dynamic Random Access Memory: 1FeFET-1C Technology for Neuro-Symbolic AI [14.486320458474536]
ニューロシンボリック人工知能(AI)は、ノイズや一般化されたパターンから学習し、論理的推論を行い、解釈可能な推論を提供する。
現在のハードウェアは、'neuro'と'symbolic'コンポーネント間の動的リソース割り当てを必要とするアプリケーションに対応するのに苦労している。
ニューロシンボリックAIの基本処理要素として強誘電体電荷領域計算メモリ(CiM)アレイを提案する。
論文 参考訳(メタデータ) (2024-10-20T05:52:03Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Full-Stack Optimization for CAM-Only DNN Inference [2.0837295518447934]
本稿では,3次重み付けニューラルネットワークと連想プロセッサのアルゴリズム最適化の組み合わせについて検討する。
演算強度を低減し,APの畳み込みを最適化する新しいコンパイルフローを提案する。
本研究では,イメージネット上でのResNet-18推論のエネルギー効率を,クロスバーメモリアクセラレータと比較して7.5倍向上させる。
論文 参考訳(メタデータ) (2024-01-23T10:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。