論文の概要: KD-PINN: Knowledge-Distilled PINNs for ultra-low-latency real-time neural PDE solvers
- arxiv url: http://arxiv.org/abs/2512.13336v1
- Date: Mon, 15 Dec 2025 13:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.684173
- Title: KD-PINN: Knowledge-Distilled PINNs for ultra-low-latency real-time neural PDE solvers
- Title(参考訳): KD-PINN:超低遅延リアルタイムニューラルPDE解法のための知識拡散型PINN
- Authors: Karim Bounja, Lahcen Laayouni, Abdeljalil Sakat,
- Abstract要約: KD-PINNは,高容量教師モデルの予測精度を小学生に伝達するフレームワークである。
本研究では,知識蒸留がPINNの推論遅延を低減し,高精度な超低遅延ニューラルPDE解法の開発に寄与するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces Knowledge-Distilled Physics-Informed Neural Networks (KD-PINN), a framework that transfers the predictive accuracy of a high-capacity teacher model to a compact student through a continuous adaptation of the Kullback-Leibler divergence. To confirm its generality for various dynamics and dimensionalities, the framework is evaluated on a representative set of partial differential equations (PDEs). In all tested cases, the student model preserved the teacher's physical accuracy, with a mean RMSE increase below 0.64%, and achieved inference speedups ranging from 4.8x (Navier-Stokes) to 6.9x (Burgers). The distillation process also revealed a regularizing effect. With an average inference latency of 5.3 ms on CPU, the distilled models enter the ultra-low-latency real-time regime defined by sub-10 ms performance. Finally, this study examines how knowledge distillation reduces inference latency in PINNs to contribute to the development of accurate ultra-low-latency neural PDE solvers.
- Abstract(参考訳): この研究は、KD-PINN(Knowledge-Distilled Physics-Informed Neural Networks)を紹介し、KD-PINNは、高容量の教師モデルの予測精度を、KD-Leiblerの連続的な適応を通して、コンパクトな学生に伝達するフレームワークである。
様々な力学と次元の一般性を確認するため、このフレームワークは偏微分方程式(PDE)の代表集合で評価される。
全ての試験では、学生モデルは教師の身体的正確さを保ち、平均RMSEは0.64%以上増加し、推論速度は4.8倍(Navier-Stokes)から6.9倍(Burgers)まで向上した。
蒸留工程も正則化効果を示した。
CPU上での平均推論遅延は5.3msで、蒸留されたモデルは、サブ10msの性能で定義される超低レイテンシのリアルタイム状態に入る。
最後に,知識蒸留がPINNの推論遅延を低減し,高精度な超低遅延ニューラルネットワークPDE解法の開発に寄与するかを検討する。
関連論文リスト
- Physics-informed Neural Operator Learning for Nonlinear Grad-Shafranov Equation [18.564353542797946]
磁気閉じ込め核融合では、Grad-Shafranov方程式(GSE)の迅速かつ正確な解はリアルタイムプラズマ制御と解析に不可欠である。
従来の数値解法は精度が高く、計算は禁じられているが、データ駆動サロゲートは素早く推論するが、物理法則を強制せず、トレーニング分布をはるかに越えて一般化することができない。
本稿では, GSE 解演算子を直接学習する物理インフォームド・ニューラル演算子 (PINO) について述べる。
論文 参考訳(メタデータ) (2025-11-24T13:46:38Z) - Low-Rank Adaptation of Evolutionary Deep Neural Networks for Efficient Learning of Time-Dependent PDEs [11.156869211296156]
本稿では,低ランク部分空間にパラメータ進化を制約する低ランク進化深層ニューラルネットワーク(LR-EDNN)を提案する。
LR-EDNNは、トレーニング可能なパラメータが大幅に少なく、計算コストが削減された同等の精度を実現する。
論文 参考訳(メタデータ) (2025-09-19T20:17:31Z) - Efficient Gravitational Wave Parameter Estimation via Knowledge Distillation: A ResNet1D-IAF Approach [2.4184866684341473]
本研究では,重力波解析における計算効率を高めるため,知識蒸留技術を用いた新しい手法を提案する。
我々はResNet1Dと逆自己回帰フロー(Inverse Autoregressive Flow, IAF)アーキテクチャを組み合わせたフレームワークを開発し、複雑な教師モデルからの知識をより軽い学生モデルに伝達する。
実験の結果,教師モデルの4.09と比較すると,学生モデルは最適構成(40,100,0.75)で3.70の検証損失を達成し,パラメータの数を43%削減した。
論文 参考訳(メタデータ) (2024-12-11T03:56:46Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PDE-Refiner: Achieving Accurate Long Rollouts with Neural PDE Solvers [40.097474800631]
時間依存偏微分方程式(PDE)は、科学や工学においてユビキタスである。
ディープニューラルネットワークに基づくサロゲートへの関心が高まっている。
論文 参考訳(メタデータ) (2023-08-10T17:53:05Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。