論文の概要: Neural Substitute Solver for Efficient Edge Inference of Power Electronic Hybrid Dynamics
- arxiv url: http://arxiv.org/abs/2507.03144v1
- Date: Thu, 03 Jul 2025 19:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.592559
- Title: Neural Substitute Solver for Efficient Edge Inference of Power Electronic Hybrid Dynamics
- Title(参考訳): 電力電子ハイブリッドダイナミクスの効率的なエッジ推定のためのニューラル置換解法
- Authors: Jialin Zheng, Haoyu Wang, Yangbin Zeng, Han Xu, Di Mou, Hong Li, Sergio Vazquez, Leopoldo G. Franquelo,
- Abstract要約: リソース制約のあるエッジハードウェア上で、本質的にハイブリッドな連続分散ダイナミクスを効率的に推論する方法は、依然として大きな課題である。
この手紙は、計算コストを大幅に削減した高速な正確な推論を目的としたニューラルネットワークベースのフレームワークであるNSS(Neural substitutesolvr)アプローチをプロポーズする。
- 参考スコア(独自算出の注目度): 6.708926878153465
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advancing the dynamics inference of power electronic systems (PES) to the real-time edge-side holds transform-ative potential for testing, control, and monitoring. How-ever, efficiently inferring the inherent hybrid continu-ous-discrete dynamics on resource-constrained edge hardware remains a significant challenge. This letter pro-poses a neural substitute solver (NSS) approach, which is a neural-network-based framework aimed at rapid accurate inference with significantly reduced computational costs. Specifically, NSS leverages lightweight neural networks to substitute time-consuming matrix operation and high-order numerical integration steps in traditional solvers, which transforms sequential bottlenecks into highly parallel operation suitable for edge hardware. Experimental vali-dation on a multi-stage DC-DC converter demonstrates that NSS achieves 23x speedup and 60% hardware resource reduction compared to traditional solvers, paving the way for deploying edge inference of high-fidelity PES dynamics.
- Abstract(参考訳): 電力電子システム(PES)のリアルタイムエッジサイドへの動的推論の強化は、テスト、制御、監視のための変換的ポテンシャルを保持する。
リソース制約のあるエッジハードウェア上で、本質的にハイブリッドな連続分散ダイナミクスを効率的に推論する方法は、依然として大きな課題である。
この手紙は、計算コストを大幅に削減した高速な正確な推論を目的としたニューラルネットワークベースのフレームワークであるNSS(Neural substitutesolvr)アプローチをプロポーズする。
具体的には、NASは軽量ニューラルネットワークを活用して、エッジハードウェアに適した高い並列操作にシーケンシャルボトルネックを変換する従来の解法において、時間を要する行列演算と高階数値積分を代用する。
マルチステージDC-DCコンバータのバリデーション実験により,NASは従来の解法に比べて23倍の高速化と60%のハードウェアリソース削減を実現し,高忠実度PSSダイナミクスのエッジ推論の展開方法を確立した。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Neuroevolving Electronic Dynamical Networks [0.0]
ニューロ進化(Neuroevolution)は、自然選択によって人工ニューラルネットワークの性能を改良するために進化的アルゴリズムを適用する方法である。
連続時間リカレントニューラルネットワーク(CTRNN)の適合性評価は、時間と計算コストがかかる可能性がある。
フィールドプログラマブルゲートアレイ(FPGA)は、高性能で消費電力の少ないため、ますます人気が高まっている。
論文 参考訳(メタデータ) (2024-04-06T10:54:35Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Gradient-descent hardware-aware training and deployment for mixed-signal
Neuromorphic processors [2.812395851874055]
混合信号ニューロモルフィックプロセッサはエッジ推論ワークロードに対して極めて低消費電力な演算を提供する。
我々は、混合信号型ニューロモルフィックプロセッサDYNAP-SE2へのスパイキングニューラルネットワーク(SNN)の訓練と展開のための新しい手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T08:56:54Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。