論文の概要: TT-PINN: A Tensor-Compressed Neural PDE Solver for Edge Computing
- arxiv url: http://arxiv.org/abs/2207.01751v1
- Date: Mon, 4 Jul 2022 23:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 15:55:31.846498
- Title: TT-PINN: A Tensor-Compressed Neural PDE Solver for Edge Computing
- Title(参考訳): TT-PINN:エッジコンピューティングのためのテンソル圧縮型ニューラルPDEソルバー
- Authors: Ziyue Liu, Xinling Yu, Zheng Zhang
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、複雑な物理系をモデル化する能力のため、ますます採用されている。
本稿では,Helmholtz-Train分解に基づくエンドツーエンド圧縮PINNを提案する。
- 参考スコア(独自算出の注目度): 7.429526302331948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have been increasingly employed due
to their capability of modeling complex physics systems. To achieve better
expressiveness, increasingly larger network sizes are required in many
problems. This has caused challenges when we need to train PINNs on edge
devices with limited memory, computing and energy resources. To enable training
PINNs on edge devices, this paper proposes an end-to-end compressed PINN based
on Tensor-Train decomposition. In solving a Helmholtz equation, our proposed
model significantly outperforms the original PINNs with few parameters and
achieves satisfactory prediction with up to 15$\times$ overall parameter
reduction.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、複雑な物理システムをモデル化する能力のため、ますます採用されている。
表現性を向上するためには、多くの問題においてネットワークサイズが大きくなる必要がある。
これは、メモリ、コンピューティング、エネルギー資源に制限のあるエッジデバイス上でPINNをトレーニングする必要がある場合に、問題を引き起こします。
本稿では,エッジデバイス上でのPINNのトレーニングを実現するために,Tensor-Train分解に基づくエンドツーエンド圧縮PINNを提案する。
ヘルムホルツ方程式の解法において,提案モデルは,パラメータの少ないピン数を有意に上回り,最大15$\times$ のパラメータ低減で十分な予測を達成している。
関連論文リスト
- iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - GPT-PINN: Generative Pre-Trained Physics-Informed Neural Networks toward
non-intrusive Meta-learning of parametric PDEs [0.0]
パラメトリックPDEの設定における課題を緩和するために,GPT-PINN(Generative Pre-Trained PINN)を提案する。
ネットワークのネットワークとして、その外/meta-networkは、ニューロン数が大幅に減少している隠蔽層が1つしかないことで、ハイパーリデュースされる。
メタネットワークは、システムのパラメトリック依存を適応的に学習し、この隠れた1つのニューロンを一度に成長させる。
論文 参考訳(メタデータ) (2023-03-27T02:22:09Z) - AutoPINN: When AutoML Meets Physics-Informed Neural Networks [30.798918516407376]
PINNは、観測可能な変数を通じて、物理的なツールで観測できないクリティカルパラメータを推定できる。
既存のPINNは手動で設計されることが多く、時間を要するため、最適以下の性能につながる可能性がある。
本稿では,AutoMLとPINNを組み合わせることで,PINNの自動設計を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T03:44:08Z) - Separable PINN: Mitigating the Curse of Dimensionality in
Physics-Informed Neural Networks [6.439575695132489]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆問題の両方に新しいデータ駆動型PDEソルバとして登場した。
自動微分(AD)の計算は、PINNのトレーニングにおいて前方モードADを活用することで大幅に削減できることを示す。
我々は、より効率的な計算のために、前進モードADを容易に行える分離可能なPINN(SPINN)と呼ばれるネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T08:46:52Z) - FO-PINNs: A First-Order formulation for Physics Informed Neural Networks [1.8874301050354767]
物理インフォームドニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、物理システムの応答をシミュレーションデータなしで学習するディープラーニングニューラルネットワークのクラスである。
PINNは前方および逆問題の解決に有効であるが、パラメータ化システムでは精度が大幅に低下する。
PDE損失関数の1次定式化を用いてトレーニングした1次物理学情報ニューラルネットワーク(FO-PINN)を提案する。
論文 参考訳(メタデータ) (2022-10-25T20:25:33Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。