論文の概要: Exploring Physical Latent Spaces for Deep Learning
- arxiv url: http://arxiv.org/abs/2211.11298v1
- Date: Mon, 21 Nov 2022 09:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:02:47.396884
- Title: Exploring Physical Latent Spaces for Deep Learning
- Title(参考訳): 深層学習のための物理潜在空間の探索
- Authors: Chloe Paliard, Nils Thuerey, Kiwon Um
- Abstract要約: 偏微分方程式(PDE)を用いた物理シミュレーションによる深部ニューラルネットワークモデルの訓練について検討する。
従来の研究とは対照的に、シミュレーションされた空間に制約を課すのではなく、ニューラルネットワークが使用するツールとして、その自由度を純粋に扱います。
- 参考スコア(独自算出の注目度): 27.677428408757763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore training deep neural network models in conjunction with physical
simulations via partial differential equations (PDEs), using the simulated
degrees of freedom as latent space for the neural network. In contrast to
previous work, we do not impose constraints on the simulated space, but rather
treat its degrees of freedom purely as tools to be used by the neural network.
We demonstrate this concept for learning reduced representations. It is
typically extremely challenging for conventional simulations to faithfully
preserve the correct solutions over long time-spans with traditional, reduced
representations. This problem is particularly pronounced for solutions with
large amounts of small scale features. Here, data-driven methods can learn to
restore the details as required for accurate solutions of the underlying PDE
problem. We explore the use of physical, reduced latent space within this
context, and train models such that they can modify the content of physical
states as much as needed to best satisfy the learning objective. Surprisingly,
this autonomy allows the neural network to discover alternate dynamics that
enable a significantly improved performance in the given tasks. We demonstrate
this concept for a range of challenging test cases, among others, for
Navier-Stokes based turbulence simulations.
- Abstract(参考訳): 我々は、ニューラルネットワークの潜在空間として、シミュレーションされた自由度を用いて、偏微分方程式(PDE)による物理シミュレーションと協調して深部ニューラルネットワークモデルを訓練する。
従来の研究とは対照的に、シミュレーション空間に制約を課すのではなく、ニューラルネットワークが使用するツールとして、その自由度を純粋に扱います。
還元表現を学習するためのこの概念を実証する。
通常、従来のシミュレーションでは、従来の縮小表現を持つ長い時間スパンで正しい解を忠実に保存することが極めて困難である。
この問題は、大規模な機能を持つソリューションでは特に顕著である。
ここでは、データ駆動手法は、基礎となるPDE問題の正確な解に必要な詳細を復元することを学ぶことができる。
我々は、この文脈における物理的で少ない潜在空間の使用を探求し、学習目標を最大限に満たすために必要な物理状態の内容を変更できるようにモデルを訓練する。
驚くべきことに、この自律性によってニューラルネットワークは、与えられたタスクのパフォーマンスを大幅に向上させる代替ダイナミクスを発見できる。
この概念を,navier-stokesに基づく乱流シミュレーションのための,様々な挑戦的なテストケースで実証する。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Deep multitask neural networks for solving some stochastic optimal
control problems [0.0]
本稿では,最適制御問題のクラスについて考察し,ニューラルネットワークを用いた効果的な解法を提案する。
マルチタスクニューラルネットワークをトレーニングするために,タスク間の学習を動的にバランスさせる新しいスキームを導入する。
実世界のデリバティブ価格問題に関する数値実験を通じて,本手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-01-23T17:20:48Z) - Neural Stress Fields for Reduced-order Elastoplasticity and Fracture [43.538728312264524]
弾塑性と破壊の低次モデリングのためのハイブリッドニューラルネットワークと物理フレームワークを提案する。
鍵となる革新は、暗黙の神経表現を通してキルヒホフ応力場に対する低次元多様体を訓練することである。
最大10万倍の次元削減と最大10倍の時間節約を実証した。
論文 参考訳(メタデータ) (2023-10-26T21:37:32Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Backpropagation-free Training of Deep Physical Neural Networks [0.0]
我々は「モデルフリーフォワードトレーニング」と呼ばれる生物学的に妥当な学習アルゴリズムによって強化された単純なディープニューラルネットワークアーキテクチャを提案する。
本手法は,トレーニング速度の向上,デジタル計算の削減,物理システムにおける消費電力の削減などにより,最先端のハードウェア・アウェアトレーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T14:02:49Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - A deep learning theory for neural networks grounded in physics [2.132096006921048]
ニューロモルフィックアーキテクチャ上で大規模で高速で効率的なニューラルネットワークを構築するには、それらを実装および訓練するためのアルゴリズムを再考する必要がある。
私たちのフレームワークは、非常に幅広いモデル、すなわち状態やダイナミクスが変動方程式によって記述されるシステムに適用されます。
論文 参考訳(メタデータ) (2021-03-18T02:12:48Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。