論文の概要: Exploring Physical Latent Spaces for High-Resolution Flow Restoration
- arxiv url: http://arxiv.org/abs/2211.11298v2
- Date: Tue, 3 Oct 2023 08:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 10:58:46.346375
- Title: Exploring Physical Latent Spaces for High-Resolution Flow Restoration
- Title(参考訳): 高分解能流動回復のための物理潜在空間の探索
- Authors: Chloe Paliard, Nils Thuerey, Kiwon Um
- Abstract要約: 偏微分方程式(PDE)を用いた物理シミュレーションによる深部ニューラルネットワークモデルの訓練について検討する。
従来の研究とは対照的に、シミュレーション空間の自由度をニューラルネットワークが使用するツールとして純粋に扱う。
- 参考スコア(独自算出の注目度): 22.924868896246334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore training deep neural network models in conjunction with physics
simulations via partial differential equations (PDEs), using the simulated
degrees of freedom as latent space for a neural network. In contrast to
previous work, this paper treats the degrees of freedom of the simulated space
purely as tools to be used by the neural network. We demonstrate this concept
for learning reduced representations, as it is extremely challenging to
faithfully preserve correct solutions over long time-spans with traditional
reduced representations, particularly for solutions with large amounts of small
scale features. This work focuses on the use of such physical, reduced latent
space for the restoration of fine simulations, by training models that can
modify the content of the reduced physical states as much as needed to best
satisfy the learning objective. This autonomy allows the neural networks to
discover alternate dynamics that significantly improve the performance in the
given tasks. We demonstrate this concept for various fluid flows ranging from
different turbulence scenarios to rising smoke plumes.
- Abstract(参考訳): 我々は、ニューラルネットワークの潜在空間として、シミュレーションされた自由度を用いて、偏微分方程式(PDE)による物理シミュレーションと協調して深層ニューラルネットワークモデルを訓練する。
従来の研究とは対照的に,本論文ではシミュレーション空間の自由度を,ニューラルネットワークが使用するツールとして純粋に扱う。
従来の縮小表現を用いた長い時間にわたって正しい解を忠実に保存することは極めて困難であり、特に多数の小型特徴を持つ解について、この概念を実証する。
本研究は, 学習目標を最大限に満たすために, 減った物理状態の内容を可能な限り修正できるモデルを訓練することにより, 微シミュレーションの復元に, 物理的に縮小された潜在空間を使うことに焦点をあてる。
この自律性により、ニューラルネットワークは与えられたタスクのパフォーマンスを大幅に改善する代替のダイナミクスを発見できる。
この概念は, 様々な乱流のシナリオから上昇する煙柱まで, 様々な流体流について実証する。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Deep multitask neural networks for solving some stochastic optimal
control problems [0.0]
本稿では,最適制御問題のクラスについて考察し,ニューラルネットワークを用いた効果的な解法を提案する。
マルチタスクニューラルネットワークをトレーニングするために,タスク間の学習を動的にバランスさせる新しいスキームを導入する。
実世界のデリバティブ価格問題に関する数値実験を通じて,本手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-01-23T17:20:48Z) - Neural Stress Fields for Reduced-order Elastoplasticity and Fracture [43.538728312264524]
弾塑性と破壊の低次モデリングのためのハイブリッドニューラルネットワークと物理フレームワークを提案する。
鍵となる革新は、暗黙の神経表現を通してキルヒホフ応力場に対する低次元多様体を訓練することである。
最大10万倍の次元削減と最大10倍の時間節約を実証した。
論文 参考訳(メタデータ) (2023-10-26T21:37:32Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Backpropagation-free Training of Deep Physical Neural Networks [0.0]
我々は「モデルフリーフォワードトレーニング」と呼ばれる生物学的に妥当な学習アルゴリズムによって強化された単純なディープニューラルネットワークアーキテクチャを提案する。
本手法は,トレーニング速度の向上,デジタル計算の削減,物理システムにおける消費電力の削減などにより,最先端のハードウェア・アウェアトレーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T14:02:49Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - A deep learning theory for neural networks grounded in physics [2.132096006921048]
ニューロモルフィックアーキテクチャ上で大規模で高速で効率的なニューラルネットワークを構築するには、それらを実装および訓練するためのアルゴリズムを再考する必要がある。
私たちのフレームワークは、非常に幅広いモデル、すなわち状態やダイナミクスが変動方程式によって記述されるシステムに適用されます。
論文 参考訳(メタデータ) (2021-03-18T02:12:48Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。