論文の概要: Inverse analysis of granular flows using differentiable graph neural network simulator
- arxiv url: http://arxiv.org/abs/2401.13695v3
- Date: Fri, 26 Apr 2024 14:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 17:28:28.605318
- Title: Inverse analysis of granular flows using differentiable graph neural network simulator
- Title(参考訳): 微分可能なグラフニューラルネットワークシミュレータによる粒界流れの逆解析
- Authors: Yongjin Choi, Krishna Kumar,
- Abstract要約: 地すべりや土砂流などの粒状流の逆問題では, 物質パラメータや境界条件が推定される。
これらの逆問題に対する従来の高忠実性シミュレータは計算的に要求される。
グラフニューラルネットワークの逆モード自動微分と勾配に基づく最適化を組み合わせた新しい微分可能なグラフニューラルネットワークシミュレータ(GNS)を提案する。
- 参考スコア(独自算出の注目度): 1.8231854497751137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inverse problems in granular flows, such as landslides and debris flows, involve estimating material parameters or boundary conditions based on target runout profile. Traditional high-fidelity simulators for these inverse problems are computationally demanding, restricting the number of simulations possible. Additionally, their non-differentiable nature makes gradient-based optimization methods, known for their efficiency in high-dimensional problems, inapplicable. While machine learning-based surrogate models offer computational efficiency and differentiability, they often struggle to generalize beyond their training data due to their reliance on low-dimensional input-output mappings that fail to capture the complete physics of granular flows. We propose a novel differentiable graph neural network simulator (GNS) by combining reverse mode automatic differentiation of graph neural networks with gradient-based optimization for solving inverse problems. GNS learns the dynamics of granular flow by representing the system as a graph and predicts the evolution of the graph at the next time step, given the current state. The differentiable GNS shows optimization capabilities beyond the training data. We demonstrate the effectiveness of our method for inverse estimation across single and multi-parameter optimization problems, including evaluating material properties and boundary conditions for a target runout distance and designing baffle locations to limit a landslide runout. Our proposed differentiable GNS framework offers an orders of magnitude faster solution to these inverse problems than the conventional finite difference approach to gradient-based optimization.
- Abstract(参考訳): 地すべりや土砂流などの粒状流の逆問題では, 目標流出プロファイルに基づいて材料パラメータや境界条件を推定する。
これらの逆問題に対する従来の高忠実性シミュレータは計算的に要求され、可能なシミュレーションの数を制限する。
さらに、その微分不可能な性質は、高次元問題における効率で知られている勾配に基づく最適化法を適用できないものにしている。
機械学習ベースのサロゲートモデルは計算効率と微分可能性を提供するが、グラニュラーフローの完全な物理を捉えるのに失敗する低次元の入出力マッピングに依存するため、トレーニングデータ以上の一般化に苦慮することが多い。
本稿では,グラフニューラルネットワークの逆モード自動微分と勾配に基づく最適化を組み合わせることで,新たな微分可能なグラフニューラルネットワークシミュレータ(GNS)を提案する。
GNSは、系をグラフとして表現することで粒度の流れのダイナミクスを学習し、現在の状態から次のステップでグラフの進化を予測する。
差別化可能なGNSは、トレーニングデータを超えた最適化機能を示している。
本研究では, 単パラメータおよび多パラメータ最適化問題に対する逆推定法の有効性を実証し, 目標ランアウト距離に対する材料特性と境界条件の評価と, 地すべりランアウトの制限のためにバッフル位置を設計することを含む。
提案した微分可能GNSフレームワークは、従来の勾配に基づく最適化に対する有限差分法よりも、これらの逆問題に対して桁違いに高速な解を提供する。
関連論文リスト
- Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [4.313136216120379]
本稿では、過度にパラメータ化された2層PINNのトレーニングのための暗黙の勾配降下に対する収束解析について述べる。
ランダムなIGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - Accelerating Particle and Fluid Simulations with Differentiable Graph
Networks for Solving Forward and Inverse Problems [2.153852088624324]
物理埋め込み型微分可能グラフネットワークシミュレータを用いて粒子シミュレーションと流体シミュレーションを解く。
GNSは、領域をグラフとして表現し、粒子をノードとして、相互作用をエッジとして学習する。
GNSは、並列CPUシミュレーションと比較して粒度予測の165倍の高速化を実現している。
論文 参考訳(メタデータ) (2023-09-23T11:52:43Z) - Diffusion Generative Inverse Design [28.04683283070957]
逆設計(英: inverse design)とは、目的関数の入力を最適化し、目的の結果を導出する問題を指す。
学習グラフニューラルネットワーク(GNN)の最近の進歩は、シミュレーション力学の正確で効率的で微分可能な推定に利用することができる。
本稿では, 分散拡散モデルを用いて, 逆設計問題の解法を効率的に行う方法を示し, より効率的な粒子サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-05T08:32:07Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。