論文の概要、ライセンス

# (参考訳) マルチスケールグラフニューラルネットワークによる連続体力学のシミュレーション [全文訳有]

Simulating Continuum Mechanics with Multi-Scale Graph Neural Networks ( http://arxiv.org/abs/2106.04900v1 )

ライセンス: CC BY 4.0
Mario Lino, Chris Cantwell, Anil A. Bharath, Stathi Fotiadis(参考訳) 1つ以上の偏微分方程式を数値的に解く連続体力学シミュレータは、科学や工学の多くの分野において必須のツールであるが、その性能はしばしば応用を制限している。 最近の機械学習のアプローチは時空間予測を加速する能力を示しているが、比較において適度な精度しか持たない。 ここでは、非定常連続体力学を推論するための新しいマルチスケールグラフニューラルネットワークモデルであるMultiScaleGNNを紹介する。 MultiScaleGNNは、物理領域を非構造化ノードの集合として表現し、1つ以上のグラフを構築し、それぞれが異なる空間解像度のスケールを符号化する。 これらのグラフ間の逐次的な学習メッセージパッシングにより、GNNがシステム状態をキャプチャして予測する能力が向上する。 グラフ表現を用いることで、MultiScaleGNNはグラフのエッジに誘導バイアスとして周期境界条件を課し、ノード位置への独立性を達成することができる。 本手法は, 対流問題と非圧縮性流体力学について実証する。 その結果,提案モデルは一様移流場から複素領域上の高次場へ一般化でき,レイノルズ数の範囲内の長期ナビエ・ストークス解を推算できることがわかった。 MultiScaleGNNで得られたシミュレーションは、トレーニングされたものよりも2~4桁高速である。

Continuum mechanics simulators, numerically solving one or more partial differential equations, are essential tools in many areas of science and engineering, but their performance often limits application in practice. Recent modern machine learning approaches have demonstrated their ability to accelerate spatio-temporal predictions, although, with only moderate accuracy in comparison. Here we introduce MultiScaleGNN, a novel multi-scale graph neural network model for learning to infer unsteady continuum mechanics. MultiScaleGNN represents the physical domain as an unstructured set of nodes, and it constructs one or more graphs, each of them encoding different scales of spatial resolution. Successive learnt message passing between these graphs improves the ability of GNNs to capture and forecast the system state in problems encompassing a range of length scales. Using graph representations, MultiScaleGNN can impose periodic boundary conditions as an inductive bias on the edges in the graphs, and achieve independence to the nodes' positions. We demonstrate this method on advection problems and incompressible fluid dynamics. Our results show that the proposed model can generalise from uniform advection fields to high-gradient fields on complex domains at test time and infer long-term Navier-Stokes solutions within a range of Reynolds numbers. Simulations obtained with MultiScaleGNN are between two and four orders of magnitude faster than the ones on which it was trained.
公開日: Wed, 9 Jun 2021 08:37:38 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] G L . 9 ] G L。 0.81
s c [ 1 v 0 0 9 4 0 sc [ 1 v 0 0 9 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Simulating Continuum Mechanics with Multi-Scale Graph Neural Networks マルチスケールグラフニューラルネットワークによる連続体力学のシミュレーション 0.73
Mario Lino Department of Aeronautics Imperial College London マリオ・リノ インペリアル・カレッジ・ロンドン航空科 0.60
mal1218@ic.ac.uk mal1218@ic.ac.uk 0.52
Chris Cantwell Chris Cantwell 0.85
Department of Aeronautics Imperial College London インペリアル・カレッジ・ロンドン航空科 0.63
Anil A. Bharath Anil A. Bharath 0.94
Department of Bioengineering バイオエンジニアリング学科 0.72
Imperial College London インペリアル・カレッジ・ロンドン 0.56
Stathi Fotiadis Stathi Fotiadis 0.85
Department of Bioengineering バイオエンジニアリング学科 0.72
Imperial College London インペリアル・カレッジ・ロンドン 0.56
Abstract Continuum mechanics simulators, numerically solving one or more partial differential equations, are essential tools in many areas of science and engineering, but their performance often limits application in practice. 概要 1つ以上の偏微分方程式を数値的に解く連続体力学シミュレータは、科学や工学の多くの分野において必須のツールであるが、その性能はしばしば応用を制限している。 0.56
Recent modern machine learning approaches have demonstrated their ability to accelerate spatio-temporal predictions, although, with only moderate accuracy in comparison. 最近の機械学習のアプローチは時空間予測を加速する能力を示しているが、比較において適度な精度しか持たない。 0.64
Here we introduce MultiScaleGNN, a novel multi-scale graph neural network model for learning to infer unsteady continuum mechanics. ここでは、非定常連続体力学を推論するための新しいマルチスケールグラフニューラルネットワークモデルであるMultiScaleGNNを紹介する。 0.85
MultiScaleGNN represents the physical domain as an unstructured set of nodes, and it constructs one or more graphs, each of them encoding different scales of spatial resolution. MultiScaleGNNは、物理領域を非構造化ノードの集合として表現し、1つ以上のグラフを構築し、それぞれが異なる空間解像度のスケールを符号化する。 0.75
Successive learnt message passing between these graphs improves the ability of GNNs to capture and forecast the system state in problems encompassing a range of length scales. これらのグラフ間の逐次的な学習メッセージパッシングにより、GNNがシステム状態をキャプチャして予測する能力が向上する。 0.64
Using graph representations, MultiScaleGNN can impose periodic boundary conditions as an inductive bias on the edges in the graphs, and achieve independence to the nodes’ positions. グラフ表現を使用することで、MultiScaleGNNはグラフのエッジに誘導バイアスとして周期境界条件を課し、ノードの位置への独立性を達成することができる。 0.78
We demonstrate this method on advection problems and incompressible fluid dynamics. 本手法は, 対流問題と非圧縮性流体力学について実証する。 0.54
Our results show that the proposed model can generalise from uniform advection fields to high-gradient fields on complex domains at test time and infer long-term Navier-Stokes solutions within a range of Reynolds numbers. その結果,提案モデルは一様移流場から複素領域上の高次場へ一般化でき,レイノルズ数の範囲内の長期ナビエ・ストークス解を推算できることがわかった。 0.77
Simulations obtained with MultiScaleGNN are between two and four orders of magnitude faster than the ones on which it was trained. MultiScaleGNNで得られたシミュレーションは、トレーニングされたものよりも2~4桁高速である。 0.60
1 Introduction Forecasting the spatio-temporal mechanics of continuous systems is a common requirement in many areas of science and engineering. 1 はじめに 連続システムの時空間力学を予測することは、科学や工学の多くの分野において共通の要件である。
訳抜け防止モード: 1 はじめに 連続系の時空間力学の予測 科学や工学の多くの分野において 共通の要件です
0.72
Continuum mechanics models often describe the underlying physical laws by one or more partial differential equations (PDEs), whose complexity may preclude their analytic solution. 連続体力学モデルは、1つ以上の偏微分方程式(pdes)によって基礎となる物理法則を記述することが多い。 0.64
Numerical methods are well-established for approximately solving PDEs by discretising the the governing PDEs to form an algebraic system which can be solved [1, 2]. 数値解法は、PDEを分解し、[1, 2]を解ける代数的体系を形成することによって、PDEを概ね解くために確立されている。
訳抜け防止モード: 数値解法は良い - PDEを近似的に解くために確立された 統治する PDE を、[ 1, 2 ] を解ける代数的システムに分解する。
0.72
Such solvers can achieve high levels of accuracy, but they are computationally expensive. このようなソルバは高い精度を達成できるが、計算コストは高い。 0.64
Deep learning techniques have recently been shown to accelerate physical simulations without significantly penalising accuracy. 近年、深層学習技術は、精度を著しく低下させることなく物理シミュレーションを加速することが示されている。 0.56
This has motivated an increasing interest in the use of deep neural networks (DNNs) to produce realistic real-time animations for computer graphics [3, 4, 5] and to speed-up simulations in engineering design and control [6, 7, 8, 9]. これは、コンピュータグラフィックス [3, 4, 5] のリアルなリアルタイムアニメーションを作成し、エンジニアリング設計と制御 [6, 7, 8, 9] のシミュレーションを高速化するために、ディープニューラルネットワーク(dnn)の使用への関心が高まっている。 0.81
Most of the recent work on deep learning to infer continuous physics has focused on convolutional neural networks (CNNs) [10, 11, 12]. 連続物理学を推論するディープラーニングに関する最近の研究のほとんどは、畳み込みニューラルネットワーク(CNN) [10, 11, 12]に焦点を当てている。 0.75
In part, the success of CNNs for these problems lies in their これらの問題に対するCNNの成功は、その一部にある。 0.73
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
translation invariance and locality [13], which represent strong and desirable inductive biases for continuum-mechanics models. 連続体-機械モデルに対して強く望ましい帰納的バイアスを表す翻訳不変性と局所性[13]。 0.76
However, CNNs constrain input and output fields to be defined on rectangular domains representated by regular grids, which is not suitable for more complex domains. しかし、CNNは、より複雑な領域には適さない正規の格子で表される矩形領域で定義される入力と出力のフィールドを制約する。 0.62
As for traditional numerical techniques, it is desirable to be able to adjust the resolution over space, devoting more effort where the physics are challenging to resolve, and less effort elsewhere. 従来の数値手法では、空間上の解像度を調整でき、物理学が解くのが難しいほど多くの労力を費やすことができ、他の場所での労力を減らすことが望ましい。 0.65
An alternative approach to applying deep learning to geometrically and topologically complex domains are graph neural networks (GNNs), which can also be designed to satisfy spatial invariance and locality [14, 15]. 幾何学的および位相的に複雑な領域にディープラーニングを適用する別のアプローチはグラフニューラルネットワーク(GNN)であり、空間的不変性と局所性 [14, 15] を満たすように設計されている。
訳抜け防止モード: 代替アプローチ 幾何学的および位相的に複雑な領域に深層学習を適用する グラフニューラルネットワーク(GNN)です 空間的不変性と局所性 [14, 15] を満たすように設計されています
0.82
In this paper we describe a novel approach to applying GNNs for accurately forecasting the evolution of physical systems in complex and irregular domains. 本稿では,複雑な領域と不規則領域における物理系の進化を正確に予測するためにGNNを適用する新しい手法について述べる。 0.67
(a) Advection advection (複数形 advections) 0.60
(b) Incompressible flow Figure 1: MultiScaleGNN forecasts continuous dynamics. (b)非圧縮性流れ 図1: MultiScaleGNN は継続的ダイナミクスを予測します。 0.72
We used it to simulate (a) advection [video] and, (b) the incompressible flow around a circular cylinder [video]. 我々は、(a)対流[ビデオ]と(b)円柱[ビデオ]のまわりの圧縮不能な流れをシミュレートした。 0.67
In (a) the upper-lower and left-right boundaries are periodic. a) 上側と左側の境界は周期的である。 0.69
In (b) the upper-lower boundaries are periodic. b) 上の境界は周期的である。 0.70
The upper figure shows the u field predicted at a set of nodes obtained with adaptive coarsening/refinement, the bottom figure shows the interpolated field. 上図は適応粗い/細粒化で得られる一組のノードで予測されるuフィールドを示し、下図は補間フィールドを示す。 0.76
Contribution. We propose MultiScaleGNN, a multi-scale GNN model, to forecast the spatiotemporal evolution of continuous systems discretised as unstructured sets of nodes. 貢献。 マルチスケールGNNモデルであるMultiScaleGNNを提案し、非構造化ノード集合として識別された連続システムの時空間的進化を予測する。 0.69
Each scale processes the information at different resolutions, enabling the network to more accurately and efficiently capture complex physical systems, such as fluid dynamics, with the same number of learnable parameters as a single level GNN. 各スケールは異なる解像度で情報を処理し、ネットワークは1レベルgnnと同じ数の学習可能なパラメータを持つ流体力学のような複雑な物理システムをより正確かつ効率的に捉えることができる。 0.83
We apply MultiScaleGNN to simulate two unsteady fluid dynamics problems: advection and incompressible fluid flow around a circular cylinder within the time-periodic laminar vortex-shedding regime. 本研究では,非定常流体力学問題である円柱まわりの圧縮性流体流と非圧縮性流体流の2つの非定常流体力学問題に対してマルチスケールgnnを適用した。 0.52
We evaluate the improvement in accuracy over long roll-outs as the number of scales in the model are increased. モデルにおけるスケール数の増加に伴い,長期ロールアウトによる精度の向上を評価する。 0.84
Importantly, we show that the proposed model is independent of the spatial discretisation and the mean absolute error (MAE) decreases linearly as the distance between nodes is reduced. 重要なことは,提案モデルが空間的離散化とは独立であり,ノード間の距離が減少するにつれて平均絶対誤差(MAE)が線形に減少することである。 0.79
We exploit this to apply adaptive graph coarsening and refinement. これを適応グラフ粗さと細粒化に適用する。 0.69
We also demonstrate a technique to impose periodic boundary conditions as an inductive bias on the graph network connectivity. また,グラフネットワーク接続性に対する帰納バイアスとして周期境界条件を課す手法を示す。 0.74
MultiScaleGNN simulations are between two and four orders of magnitude faster than the numerical solver used for generating the ground truth datasets, becoming a potential surrogate model for fast predictions. マルチスケールGNNシミュレーションは、地上の真理データセットを生成する数値解法よりも2~4桁高速であり、高速な予測のための代理モデルとなる。 0.75
2 Background and related work Deep learning on graphs A directed graph, G, is defined as G = (V, E), where V = {1, 2, . 2 背景と関連作品 グラフ上のディープラーニング 有向グラフ g は g = (v, e) と定義され、v = {1, 2, ... である。 0.76
. . ,|V |} is a set of nodes and E = {1, 2, . . . ,|V |} はノードの集合であり、E = {1, 2, である。 0.86
. . ,|E|} is a set of directed edges, each of them connecting a sender node s ∈ V to a receiver node r ∈ V . . . ,|E|} は有向エッジの集合であり、それぞれが送信ノード s ∈ V を受信ノード r ∈ V に接続する。 0.80
Each node i can be assigned a vector of node attributes vi, and each edge k can be assigned a vector of edge attributes ek. 各ノードiはノード属性viのベクトルを割り当てることができ、各エッジkはエッジ属性ekのベクトルを割り当てることができる。 0.82
Gilmer, et al (2017) [16] introduced neural message passing (MP), a layer that updates the node attributes given the current node and edge attributes, as well as a set of learnable parameters. Gilmer, et al (2017) [16]は、現在のノードとエッジ属性が与えられたノード属性を更新する層であるニューラルメッセージパッシング(MP)と、学習可能なパラメータのセットを導入した。 0.78
Battaglia et al (2018) [14] further generalised MP layers by introducing an edge-update function. Battaglia et al (2018) [14] はエッジ更新関数を導入してさらに一般化した MP 層である。 0.71
Their MP layer performs three steps: edge update, aggregation and node update —equations (1), (2) and (3) respectively. 彼らのMP層は、それぞれエッジ更新、アグリゲーション、ノード更新(方程式(1)、(2)、(3))の3つのステップを実行する。
訳抜け防止モード: 彼らのMPレイヤは、エッジ更新、集約、ノード更新の3つのステップを実行する。 (2)および(3)はそれぞれ。
0.65
2 2 0.85
英語(論文から抽出)日本語訳スコア
k = f e(ek, vrk , vsk ) ∀k ∈ E e(cid:48) ∀r ∈ V ¯e(cid:48) r = ρe→v(E(cid:48) r) ∀r ∈ V v(cid:48) r = f v(¯e(cid:48) r, vr) k = f e(ek, vrk , vsk ) sk ∈ e e(cid:48) sr ∈ v se(cid:48) r = ρe→v(e(cid:48) r) sr ∈ v v(cid:48) r = f v(cid:48) r, vr) 0.91
(1) (2) (3) (1) (2) (3) 0.85
Functions f e and f v are the edge and node update functions —typically multi-layer perceptrons (MLPs). 関数 f e と f v はエッジとノード更新関数であり、典型的には多層パーセプトロン(mlps)である。 0.73
The aggregation function ρe→v is applied to each subset of updated edges going to node r, and it must be permutation invariant. 集約関数 ρe→v はノード r に向かう更新辺の各部分集合に適用され、置換不変である必要がある。 0.73
This MP layer has already proved successful in a range of data-driven physics problems [5, 17, 18]. このmp層は、データ駆動物理学の問題[5, 17, 18]ですでに成功している。 0.73
CNNs for simulating continuous mechanics. CNNによる連続力学のシミュレーション 0.82
During the last five years, most of the DNNs used for predicting continuous physics have included convolutional layers. 過去5年間で、連続物理学の予測に使われるDNNのほとんどは畳み込み層を含んでいる。 0.74
For instance, CNNs have been used to solve the Poisson’s equation [19, 20], to solve the steady N-S equations [6, 7, 8, 9, 21], and to simulate unsteady fluid flows [4, 10, 12, 22, 23, 24]. 例えば、CNNはポアソン方程式 [19, 20] を解き、安定なN-S方程式 [6, 7, 8, 8, 9, 21] を解き、非定常流体 (4, 10, 12, 22, 23 24] をシミュレートするために使われてきた。 0.77
These CNN-based solvers are between one and four orders of magnitude faster than numerical solvers [6, 12], and some of them have shown good extrapolation to unseen domain geometries and initial conditions [9, 12]. これらのCNNベースの解法は, 数値解法 [6, 12] よりも1~4桁高速であり, そのいくつかは未確認領域の測地と初期条件 [9, 12] に対してよく外挿されている。 0.69
Simulating physics with GNNs. GNNによる物理シミュレーション 0.66
Recently, GNNs have been used to simulate the motion of discrete systems of solid particles [18, 25, 26] and deformable solids and fluids discretised into lagrangian (or free) particles [5, 27, 28, 29]. 近年、gnnは固体粒子[18,25,26]と変形可能な固体と流体の離散系の運動をラグランジアン(または自由)粒子[5,27,28,29]に区別するために使われている。 0.77
Battaglia, et al (2016) [18] and Chang, et al (2016) [25] represented systems of particles as graphs, whose nodes encode the state of the particles and whose edges encode their pairwise interactions; nodes and edges are individually updated through a single MP layer to determine the evolution of the system. Battaglia, et al (2016) [18] and Chang, et al (2016) [25] は粒子の系をグラフとして表現し、ノードは粒子の状態を符号化し、エッジは2つの相互作用を符号化した。
訳抜け防止モード: battaglia, et al (2016 ) [ 18 ] and chang, et al (2016 ) [ 25 ] は粒子系をグラフとして表現した。 ノードが粒子の状態をエンコードし、エッジが対方向の相互作用をエンコードする。 ノードとエッジは単一のmp層を通して個別に更新され、システムの進化を決定する。
0.73
Of note is the work of Sanchez, et al (2020), who discretised fluids into a set of free particles in order to apply the previous approach and infer fluid motion. 注目すべきはsanchez, et al (2020)の研究であり、流体の動きを推定するために、流体を自由粒子の集合に判別した。 0.60
Further research in this area introduced more general MP layers [26, 29, 30], high-order time-integration [31] and hierarchical models [27, 28]. この分野のさらなる研究は、より一般的なMP層 [26, 29, 30]、高次時間積分 [31]、階層モデル [27, 28]を導入している。 0.79
To the best of our knowledge Alet, et al (2019) [32] were the first to explore the use of GNNs to infer Eulerian mechanics by solving the Poisson PDE. The best of our knowledge, Alet, et al (2019) [32] was the first to explore the use of GNNs to infer Eulerian mechanics by solve the Poisson PDE。 0.77
However, their domains remained simple, used coarse spatial discretisations and did not explore the generalisation of their model. しかし、それらの領域は単純であり、粗い空間的偏見を使い、モデルの一般化を探求しなかった。 0.59
Later, Belbute-Peres, et al (2020) [33] introduced an hybrid model consisting of a numerical solver providing low-resolution solutions to the N-S equations and several MP layers performing super-resolution on them. その後、Belbute-Peres, et al (2020) [33] は、N-S方程式に対する低分解能解を提供する数値解法と、超分解能を示すいくつかのMP層からなるハイブリッドモデルを導入した。 0.63
More closely related to our work, Pfaff, et al (2020) [17] proposed a mesh-based GNN to simulate continuum mechanics, although they did not consider the use of MP at multiple scales of resolution. Pfaff, et al (2020) [17]は連続体力学をシミュレートするメッシュベースのGNNを提案したが、MPを複数の解像度で使用するとは考えていなかった。 0.61
3 Model 3.1 Model definition MultiScaleGNN infers the temporal evolution of an n-dimensional field, u(t, x) ∈ Rn, in a spatial domain D ⊂ R2.1 It requires the discretisation of D into a finite set of nodes V 1, with coordinates i ∈ D. Given an input field u(t0, xV 1 ), at time t = t0 and at the V 1 nodes, a single evaluation x1 of MultiScaleGNN returns u(t0 + dt, xV 1), where dt is a fixed time-step size. 3モデル 3.1 モデル定義 マルチスケールgnn は n-次元場 u(t, x) ∈ rn の時間発展を推定する 空間領域 d において、d を座標 i ∈ d を持つ有限個のノードの集合 v 1 に分解する必要がある 入力フィールド u(t0, xv 1 ) が与えられたとき、t = t0 および v 1 個のノードにおいて、マルチスケールgnn の単一評価 x1 が u(t0 + dt, xv 1) を返却し、dt は固定時間ステップサイズである。 0.83
Each time-step is performed by applying MP layers in L graphs and between them, as illustrated in Figure 2. 各タイムステップは、図2に示すように、Lグラフとそれらの間のMP層を適用して実行される。 0.70
The high-resolution graph G1 consists of the set of nodes V 1 and a set of directed edges E1 connecting these nodes. 高分解能グラフG1は、ノードV1とこれらのノードを接続する一連の有向エッジE1とからなる。 0.78
In a complete graph there exist |V 1|(|V 1| − 1) edges, however, MP would be extremely expensive. 完全グラフには |V 1|(|V 1| − 1) エッジが存在するが、MP は非常に高価である。 0.78
Instead, MultiScaleGNN connects each node in V 1 (receiver node) to its k-closest nodes (k-sender nodes) using a k-nearest neighbors (k-NN) algorithm. 代わりにMultiScaleGNNは、k-nearest neighbors (k-NN)アルゴリズムを用いて、V1(受信ノード)の各ノードをk-closestノード(k-senderノード)に接続する。 0.72
The node attributes of each node v1 i are the concatenation of u(t0, xi), pi and Ωi; where pi is a set of physical parameters at xi (such as the Reynolds number in fluid dynamics) and 各ノード v1 i のノード属性は u(t0, xi), pi, ωi の連結であり、ここで pi は xi における物理パラメータの集合である(流体力学におけるレイノルズ数など)。 0.81
(cid:26)1 0 (cid:26)1 0 0.85
Ωi := if xi ∈ ∂DD, otherwise, Ωi := もし xi ∈ ∂DD がなければ 0.90
with ∂DD representing the Dirichlet boundaries. Dirichlet 境界を表す ∂DD で。 0.74
Each edge attribute e1 k is assigned the relative position between sender node sk and receiver node rk. 各エッジ属性e1kは、送信ノードskと受信ノードrkとの相対位置を割り当てる。 0.73
Node attributes and edge attributes are then encoded through two independent MLPs. ノード属性とエッジ属性は、2つの独立したMLPを通じてエンコードされる。 0.65
1Model repository available on revealed on publication. 1Modelリポジトリが公開されている。 0.69
3 (4) 3 (4) 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: MultiScaleGNN architecture. 図2: MultiScaleGNN アーキテクチャ。 0.71
G1 is an original high-resolution graph, G2 is a lowerresolution graph obtained from G1, GL is the lowest-resolution graph. G1 は元の高分解能グラフ、G2 は G1 から得られる低分解能グラフ、GL は最低分解能グラフである。 0.70
Ml MP layers are applied in each graph, and, DownMP and UpMP layers between them. 各グラフにMl MP層を適用し、それらの間にDownMPとUpMP層を配置する。 0.80
A MP layer applied to G1 propagates the nodal and edge information only locally between connected (or neighbouring) nodes. G1に適用されるMP層は、接続された(または隣接する)ノード間でのみ、結節情報とエッジ情報を伝播する。 0.62
Nevertheless, most continuous physical systems require this propagation at larger scales or even globally, for instance, in incompressible flows pressure changes propagate at infinite speed throughout the entire domain. しかしながら、ほとんどの連続的な物理系は、領域全体にわたって無限の速度で伝播する非圧縮性流れの圧力変化において、この伝播を必要とする。 0.71
Propagating the nodal and edge attributes between nodes separated by hundreds of hops would necessitate an excessive number of MP layers, which is neither efficient nor scalable. 数百のホップで区切られたノード間の結節属性とエッジ属性の伝搬は、過剰な数のMP層を必要とするため、効率的でもスケーラブルでもない。
訳抜け防止モード: 数百個のホップで区切られたノード間の結節特性とエッジ特性の伝搬 過剰な数のMPレイヤが必要であり、効率も拡張性もない。
0.74
Instead, MultiScaleGNN processes the information at L scales, creating a graph for each level and propagating information between them in each pass. その代わり、MultiScaleGNNはLスケールで情報を処理し、各レベルのグラフを作成し、各パスでそれらの間の情報を伝達する。 0.76
The lower-resolution graphs (G2, G3, . 低分解能グラフ(g2,g3,.)。 0.80
. . , GL; with |V1| > |V2| > ··· > |VL|) possess fewer nodes and edges, and hence, a single MP layer can propagate attributes over longer distances more efficiently. . . V1| > |V2| > ··· > |VL|) はノードやエッジが少ないため、単一のMP層はより長い距離でより効率的に属性を伝播することができる。 0.80
These graphs are described in section 3.2. これらのグラフはセクション3.2で記述される。 0.60
As depicted in Figure 2, the information is first diffused and processed in the high-resolution graph G1 through M1 MP layers. 図2に示すように、情報は最初に拡散され、M1MP層を通して高分解能グラフG1で処理される。 0.68
It is then passed to G2 through a downward MP (DownMP) layer. その後、下位のMP(DownMP)層を通してG2に渡される。 0.82
In G2 the attributes are again processed through M2 MP layers. G2では、属性は再びM2 MP層を通して処理される。 0.62
This process is repeated L− 1 times. この過程は l− 1 回繰り返される。 0.79
The lowest resolution attributes (stored in GL) are then passed back to the scale immediately above through an upward message passing (UpMP) layer. 最下位の解像度属性(GLに格納されている)は、上向きのメッセージパッシング(UpMP)層を介して、すぐ上のスケールに戻される。 0.72
Attributes are successively passed through Ml MP layers at scale l and an UpMP layer from scale l to scale l − 1 until the information is ultimately processed in G1. 属性は、スケールlのml mp層とスケールlからスケールl−1までのupmp層を順次通過し、最終的にg1で処理される。
訳抜け防止モード: 属性はMlMP層に連続的に渡される。 そして、スケール l からスケール l − 1 までの UpMP 層は、最終的に G1 で処理される。
0.74
Finally, a MLP decodes the nodal information to return the predicted field at time t0 + dt at the V 1 nodes. 最後に、MLPは、V1ノードの時刻t0 + dtで予測されたフィールドを返すために、ノード情報を復号する。
訳抜け防止モード: 最後に、MLPがノード情報をデコードする V1ノードで予測されたフィールドをt0 + dtで返す。
0.75
To apply MP in the L graphs, MultiScaleGNN uses the MP layer summarised in equations (1) to (3), with the mean as the aggregation function. LグラフにMPを適用するために、MultiScaleGNNは、平均を集約関数として、方程式(1)から(3)に要約したMP層を用いる。 0.74
x × dl 3.2 Multi-scale graphs Each graph Gl = (V l, El) with l = 2, 3, . x × dl 3.2 マルチスケールグラフ 各グラフ Gl = (V l, El) は l = 2, 3, である。 0.87
. . , L; is obtained from graph Gl−1 by first dividing D into a regular grid with cell size dl y (Figure 3a exemplifies this for l = 2). . . , L は D をセルサイズ dl y の正則格子に分割することでグラフ Gl−1 から得られる(図 3a はこれを l = 2 に対して例示する)。 0.84
For each cell, provided that there is at least one node from V l−1 on it, a node is added to V l. The nodes from V l−1 on a given cell i and the node from V l on the same cell are denotes as child nodes, Ch(i) ⊂ V l−1, and parent node, i ∈ V l, respectively. 与えられたセル i 上の V l−1 のノードと、同じセル上の V l−1 のノードはそれぞれ子ノード Ch(i) = V l−1 と親ノード i ∈ V l と表される。
訳抜け防止モード: それぞれの細胞に v l−1から少なくとも1つのノードがある。 与えられたセルi上のv l−1からのノード そして、同じセル上のvlのノードは子ノードと表記される。 ch(i ) が v l−1 であり、親ノード i ∈ v l である。
0.67
The coordinates of each parent node is the mean position of its children nodes. 各親ノードの座標は、その子ノードの平均位置である。 0.69
Each edge k ∈ El connects sender node sk ∈ V l to receiver node rk ∈ V l, provided that there exists at least one edge from Ch(sk) to Ch(rk) in El−1. 各エッジ k ∈ el は送信ノード sk ∈ v l と受信ノード rk ∈ v l を接続し、少なくとも ch(sk) から el−1 の ch(rk) へのエッジが存在する。
訳抜け防止モード: 各辺 k ∈ El は送信ノード sk ∈ V l を受信ノード rk ∈ V l に接続する。 Ch(sk ) から Ch(rk) までの少なくとも1つのエッジが存在すると仮定する )であった。
0.84
Edge k is assigned the mean edge attribute of the set of edges going from Ch(sk) to Ch(rk). エッジ k は、Ch(sk) からCh(rk) へのエッジの集合の平均エッジ属性を割り当てる。 0.67
Downward message-passing (DownMP). 下向きメッセージパッシング (downmp)。 0.75
To perform MP from Gl−1 to Gl (see Figure 3b), a set of directed edges, El−1,l, is created. Gl−1 から Gl へ MP を実行する(図 3b を参照)ために、有向エッジの集合 El−1,l が生成される。 0.73
Each edge k ∈ El−1,l connects node sk ∈ V l−1 to its parent node rk ∈ V l, with edge attributes assigned as the relative position between child and parent nodes. 各辺 k ∈ el−1,l はノード sk ∈ v l−1 と親ノード rk ∈ v l を接続し、子ノードと親ノードの間の相対位置としてエッジ属性が割り当てられる。 0.76
A DownMP layer applies a common edge-update function, f l−1,l, to edge k and node sk. DownMP層は共通のエッジ更新関数 f l−1,l をエッジ k とノード sk に適用する。 0.79
It then i the mean updated attribute of all the edges in El−1,l arriving to node assigns to each node attribute vl i, i.e., すると i は El−1,l のすべてのエッジの平均更新属性であり、ノードに到着すると各ノード属性 vl i、すなわち、ノード属性 vl に割り当てられる。 0.71
(cid:88) k:rk=i (cid:88) k:rk=i 0.78
vl i = 1 |Ch(i)| vl i = 1 |Ch(i)| 0.89
f l−1,l([el−1,l f l−1,l([el−1,l]) 0.82
k , vl−1 sk k , vl−1 sk 0.80
]), ∀i ∈ 1, . ]) であり、i ∈ 1 である。 0.67
. . ,|V l|. . . 、|V l|。 0.82
(5) Upward message-passing (UpMP). (5) Upward Message-passing (UpMP)。 0.82
To pass and process the node attributes from Gl+1 to Gl, MultiScaleGNN defines a set of directed edges, El+1,l. ノード属性をGl+1からGlに渡して処理するために、MultiScaleGNNは有向エッジのセットEl+1,lを定義する。 0.71
These edges are the same as in El,l+1, but with opposite direction. これらの辺は El,l+1 と同じであるが、反対方向である。 0.75
An UpMP layer applies a common edge-update function, f l+1,l, to each UpMP層は共通のエッジ更新関数 f l+1,l をそれぞれ適用する。 0.88
4 4 0.85
英語(論文から抽出)日本語訳スコア
(a) Building V 2 from V 1 (a)V1からV2を構築する 0.84
(b) DownMP and UpMP layers Figure 3: (a) V 2 is obtained from V 1 by partitioning D using a grid with cell size d2 y and assigning a parent node i ∈ V 2 at the mean position of the child nodes Ch(i) ⊂ V 1 in each cell. b)ダウンMP層及びアップMP層 図3:(a)V2は、セルサイズd2yの格子を用いてDを分割し、各セルにおける子ノードCh(i)〜V1の平均位置で親ノードi ∈V2を割り当てることによりV1から得られる。 0.90
(b) DownMP and UpMP diagram. b) DownMP 図と UpMP 図。 0.73
x × d2 edge k ∈ El+1,l and both its sender (at scale l + 1) and receiver (at scale l) nodes, directly updating the node attributes in Gl, i.e., x × d2 エッジ k ∈ El+1,l と送信側 (スケール l + 1) と受信側 (スケール l) の両方で Gl のノード属性を直接更新する。 0.84
(6) UpMP layers leave the edge attributes of Gl unaltered. (6)UpMP層はGlのエッジ属性を未変更のまま残す。 0.72
To model functions f l−1,l and f l+1,l we use MLPs. 関数 f l−1,l と f l+1,l をモデル化するためには MLP を用いる。 0.70
= f l+1,l([el+1,l = f l+1,l([el+1,l) 0.86
, vl+1 sk , vl rk , vl+1 sk , vl rk 0.82
vl rk k ]), ∀k ∈ El+1,l. vl rk k ]) , k ∈ el+1,l である。 0.84
3.3 Periodic boundaries MultiLevelGNN imposes periodicity along x and y directions as an inductive bias on E1. 3.3周期境界 MultiLevelGNN は E1 上の帰納バイアスとして x と y の方向に沿って周期性を課している。 0.62
For this purpose, each periodic direction is transformed through a function P : R (cid:55)→ R2 into a circumference with unitary radius, この目的のために、各周期方向は関数 P : R (cid:55) → R2 を通して単位半径の円周に変換する。 0.79
P(x) := [cos(2πx/P ), sin(2πx/P )], P(x) := [cos(2πx/P ), sin(2πx/P )] 0.92
(7) where P is the period along the spatial coordinate under consideration (x or y direction). (7) ここで P は空間座標(x または y 方向)に沿った周期である。 0.80
The k-NN algorithm that creates E1 (see Figure 4) is then applied to the transformed coordinates. e1を生成するk-nnアルゴリズム(図4参照)は変換座標に適用される。 0.80
Even though E1 is created based on nodal proximity in the transformed space, the edge attributes are still assigned the relative positions between nodes in the original coordinate system, except at the periodic boundaries where P is added or subtracted to ensure a consistent representation. E1 は変換空間内の節間近接に基づいて生成されるが、エッジ属性は、P が加算または減算される周期境界を除いて、元の座標系内のノード間の相対的な位置を割り当て、一貫した表現を保証する。 0.83
Figure 4: Function P transforms a periodic direction into a circumference with unitary radius. 図4: 関数 P は周期方向を単位半径の円周に変換する。 0.78
V 1) and the ground-truth field u(t, x1 V1) と接体 u(t, x1) 0.61
3.4 Model training MultiScaleGNN was trained by supervising at each time-point the loss L between the predicted field V 1) obtained with a high-order finite element solver. 3.4 モデルトレーニング MultiScaleGNN は高次有限要素ソルバを用いて得られた予測フィールド V1 間の損失 L を各時点に監視することにより訓練された。 0.76
L ˆu(t, x1 includes the mean-squared error (MSE) at the V 1 nodes, the MAE at the V 1 nodes on Dirichlet(cid:17) boundaries, and the MSE for the rate of change along the E1 edges. L su(t, x1) は V1 ノードにおける平均二乗誤差(MSE)、ディリクレ(cid:17) 境界上の V1 ノードにおけるMAE、E1 エッジに沿った変化率の MSE を含む。 0.85
L can be expressed as V 1) (cid:18) ˆu(t, x1 V 1 ∈ ∂DD), u(t, x1 ) − ˆu(t, x1 ||ek||2 l は v 1 (cid:18) (cid:t, x1 v 1 ∈ ∂dd), u(t, x1 ) − su(t, x1 ||ek||2 と表現できる。 0.82
(cid:17) V 1 ∈ ∂DD) u(t, x1 rk (cid:17) v 1 ∈ ∂dd) u(t, x1 rk 0.91
) − u(t, x1 ||ek||2 ) − u(t, x1 ||ek||2 0.71
(cid:16) (cid:88) (cid:16)(cid:88) 0.72
L = MSE V 1 ), u(t, x1 L = MSE v 1 ) u(t, x1) 0.85
+ λd MAE λe|E1| +λd MAE λe|E1| 0.63
ˆu(t, x1 ˆu(t, x1 su(t, x1) su(t, x1) 0.72
) sk , (cid:16) ) sk , (cid:16) 0.83
(cid:19) . (cid:19) . 0.82
) sk (8) + ) sk (8) + 0.85
MSE ∀k∈E1 MSE シュカルE1 0.59
rk The hyper-parameters λd and λe are selected based on the physics to be learnt. rk ハイパーパラメータλdとλeは、学習される物理に基づいて選択される。 0.80
Training details for our experiments can be found in Appendix B. 実験のトレーニングの詳細は、Appendix Bで確認できます。 0.76
5 5 0.85
英語(論文から抽出)日本語訳スコア
4 Training datasets 4 トレーニングデータセット 0.83
We generated datasets to train MultiScaleGNN to simulate advection and incompressible fluid dynamics.2 我々はMultiScaleGNNをトレーニングして,対流と非圧縮性流体力学をシミュレートするデータセットを生成した。 0.49
Advection. Datasets AdvBox and AdvInBox contain simulations of a scalar field advected under a uniform velocity field (with magnitude in the range 0 to 1) on a square domain ([0, 1] × [0, 1]) and a rectangular domain ([0, 1] × [0, 0.5]) respectively. アドベクション。 データセット AdvBox と AdvInBox はそれぞれ正方形領域 ([0, 1] × [0, 1]) と長方形領域 ([0, 1] × [0, 0.5]) 上の一様速度場(範囲 0 から 1) の下にあるスカラー場のシミュレーションを含む。
訳抜け防止モード: アドベクション。 データセット advbox と advinbox は、正方形領域 ([0,]) 上の一様速度場 (0 から 1 までの大きさの) の下で与えられたスカラー場のシミュレーションを含む。 1 ] × [ 0, 1 ] および矩形領域 ( [ 0, 1 ] ) 1 ] × [ 0 , 0.5 ] ) respectively .
0.56
AdvBox domains have periodic conditions on all four boundaries, whereas AdvInBox domains have upper and lower periodic boundaries, a prescribed Dirichlet condition on the left boundary, and a zero-Neumann condition on the right boundary. AdvBoxドメインは4つの境界に周期的条件を持つのに対し、AdvInBoxドメインは上下周期的境界、左境界に所定のディリクレ条件、右境界にゼロノイマン条件を持つ。 0.72
The initial states at t0 are derived from two-dimensional truncated Fourier series with random coefficients and a random number of terms. t0 における初期状態は、ランダムな係数とランダムな項数を持つ二次元切断フーリエ級数から導かれる。 0.76
For each dataset, a new set of nodes V 1 is generated at the beginning of every training epoch. 各データセットに対して、トレーニングエポックの開始時に、新たなノードv1が生成される。 0.78
For advection models, u(t, xi) ∈ R is the advected field and pi(xi) ∈ R2 are the two components the velocity field. 対流モデルでは、u(t, xi) ∈ R は対流場、pi(xi) ∈ R2 は速度場である。 0.62
Incompressible fluid dynamics. Dataset NS contains simulations of the periodic vortex shedding around a circular cylinder at Reynolds number Re ∈ [500, 1000]. 非圧縮性流体力学 データセットnsは、レイノルズ数re ∈ [500, 1000]の円柱の周りの周期渦のシミュレーションを含んでいる。 0.75
The upper and lower boundaries are periodic, hence, the physical problem is equivalent to an infinite vertical array of cylinders. 上と下の境界は周期的であるため、物理的問題は無限の垂直なシリンダー配列と等価である。 0.74
The distance between cylinders, H, is randomly sampled between 4 and 6. シリンダー間の距離Hは、4から6の間でランダムにサンプリングされる。 0.76
Each domain is discretised into approximately 7000 nodes. 各ドメインは、約7000のノードに識別される。 0.64
For flow models, u(t, xi) ∈ R3 contains the velocity and pressure fields and pi ∈ R is the Reynolds number. 流れモデルでは、u(t, xi) ∈ R3 は速度と圧力場を含み、 pi ∈ R はレイノルズ数である。 0.83
Further details of the training and testing datasets are included in Appendix A. トレーニングとテストデータセットの詳細は、Appendix Aに記載されている。 0.68
5 Results and discussion We analyse the generalisation to unseen physical parameters, the effect of the number of scales and the independence to the spatial discretisation. 5 結果と議論 本研究では, 物理パラメータの一般化, スケール数の影響, 空間離散化に対する独立性について解析する。 0.78
All the results, except Tables 1 and 2, were obtained with 3-scale models. 表1と表2を除く全ての結果は3スケールモデルで得られた。 0.85
Model details and hyper-parameters are included in Appendix B.3. モデルの詳細とハイパーパラメータはAppendix B.3に含まれる。 0.71
Generalisation. We first consider the MultiScaleGNN model trained to infer advection. 一般化。 まず,マルチスケールGNNモデルについて考察する。 0.60
Despite MultiScaleGNN being trained on square and rectangular domains and uniform velocity fields, it generalises to complex domains and non-uniform velocity fields (obtained using the N-S equations with Re = 1). 多スケールgnnは正方形および矩形ドメインと一様速度場で訓練されているにもかかわらず、複素領域と非一様速度場に一般化する(re = 1)。 0.74
As an example of a closed domain, we consider the Taylor-Couette flow in which the inner and outer boundaries rotate at different speeds. 閉領域の例として、内領域と外領域が異なる速度で回転するテイラー・クーエット流を考える。
訳抜け防止モード: 閉領域の例として、テイラー・クーエット流を考える。 内側と外側の境界は異なる速度で回転する。
0.67
Figure 5a shows the ground truth and predictions for a simulation where the inner wall is moving faster than the outer wall in an anticlockwise direction. 図5aは、内壁が外壁よりも反時計回りに速く動くシミュレーションのための地上の真理と予測を示しています。 0.78
In the Taylor-Couette flow, the structures present in the advected field increase in spatial frequency with time due to the shear flow. テイラー・クーエ流では, 対流中の構造は, せん断流による時間とともに空間周波数が増加する。 0.71
This challenges both the networks ability to capture accurate solutions as well as its ability to generalise. これは、正確なソリューションをキャプチャするネットワーク能力と、一般化する能力の両方に挑戦する。 0.65
After 49 time-steps, the model maintains high accuracy in transporting both the lower and the higher frequencies. 49時間経過後、モデルは低周波と高周波の両方を高い精度で搬送する。 0.70
We attribute this to the model’s ability to process both high and low resolutions and the frequency range included in the training datasets —training datasets missing high-frequency structures resulted in a considerably higher diffusion. これは、高解像度と低解像度の両方を処理するモデルの能力と、トレーニングデータセットに含まれる周波数範囲に起因している。
訳抜け防止モード: これをモデルが高解像度と低解像度の両方を処理する能力に特化します。 また、トレーニングデータセットに含まれる周波数範囲 – 高い頻度構造を欠くトレーニングデータセット – は、かなり高い拡散率をもたらした。
0.65
We also evaluate the predictions of MultiScaleGNN on open domains containing obstacles of different shapes (circles, squares, ellipses and closed spline curves). また,異なる形状の障害物(円周,正方形,楕円,閉スプライン曲線)を含む開領域におけるマルチスケールgnnの予測についても評価した。 0.64
Figure 5b shows the ground truth and predictions for a field advected around a body made of arbitrary splines, with upper-lower and leftright periodic boundaries. 図5bは、任意のスプラインで作られた体の周りに、上下の周期境界と左の周期境界を持つフィールドの基底的真実と予測を示す。 0.69
The predictions show a strong resemblance to the ground truth, although after 49 time-steps we note that the predicted fields begin to show a higher degree of diffusion in the wake behind the obstacle. 予測は地上の真実と強い類似性を示すが、49回の時間経過の後、予測された場は障害物の後方での進行によってより高次に拡散し始める。 0.72
We also assess the quality of long-term inference. また, 長期推論の質を評価する。 0.60
Figures 6a and 6b show the ground truth and predictions after 99 time-steps for two obstacles with periodicity in the x and y directions. 図6a、6bは、x方向とy方向の周期性を持つ2つの障害物に対して99の時間ステップの後の基底真理と予測を示す。 0.56
It can be seen that MultiScaleGNN successfully generalises to infer advection around multiple obstacles. MultiScaleGNNは、複数の障害物の周囲の対流を推測することに成功した。 0.59
However, the MAE increased approximately linearly every time-step. しかし、MAEは時間ごとにほぼ直線的に増大した。 0.59
This limitation could be explained by the simplicity of the training datasets, and it could be mitigated by training on nonuniform velocity fields. この制限はトレーニングデータセットの単純さによって説明することができ、不均一な速度場のトレーニングによって緩和することができる。 0.68
2Datasets available on revealed on publication. 2Datasetsが公開された。 0.69
3Videos comparing the ground truth and the predictions can be found on 地上の真実と予測を比較した3つのビデオが 0.79
https://imperialcoll egelondon.box.com/s/ f6eqb25rt14mhacaysqn 436g7bup3onz https://imperialcoll egelondon.box.com/s/ f6eqb25rt14mhacaysqn 436g7bup3onz 0.18
6 6 0.85
英語(論文から抽出)日本語訳スコア
(a) Advection in a Taylor-Couette flow (a)Taylor-Couette流れにおける対流 0.78
(b) Advection around a body made of splines (b)スプラインでできた体の周りに横たわるさま 0.69
Figure 5: Ground truth and MultiScaleGNN predictions for (a) the advection of scalar field in a Taylor-Couette flow [video], and (b) the advection around a body made of splines with periodicity along x and y [video]. 図5: 基底真理とマルチスケールgnn予測: (a) テイラー・クーレット流れにおけるスカラー場のアドベクション [ビデオ] および (b) x と y に沿って周期性のあるスプラインからなる物体の周りのアドベクション [ビデオ] 。 0.73
(a) (b) Figure 6: Ground truth and MultiScaleGNN predictions for the advected field after 99 time-steps pass (a) squared and circular obstacles [video], (b) circular obstacles [video]. (a) (b) 図6: 99の時間ステップが (a) 正方形および円形の障害物 [ビデオ], (b) 円の障害物 [ビデオ] を通過した後の対流場に対する地中真実とマルチスケールGNN予測 0.81
Upper-lower and left-right boundaries are periodic. 右上と右上の境界は周期的である。 0.54
MultiScaleGNN was also trained to simulate unsteady incompressible fluid dynamics in a range of Reynolds numbers between 500 and 1000. また、MultiScaleGNNは500から1000のレイノルズ数の非定常非圧縮性流体力学をシミュレートする訓練も行った。 0.72
It shows very good interpolation to unseen Reynolds numbers within this range. この範囲内のレイノルズ数に対して非常によい補間を示す。 0.63
For instance, Figure 7 compares the ground truth and predicted fields after 99 time-steps for Re = 700. 例えば、図7はre = 700の99の時間ステップの後、基底真理と予測フィールドを比較します。 0.72
The MAE increases for Reynolds numbers lower than 400 and higher than 1200, as illustrated in Figure 8a, which represents the MAE for a range of Reynolds numbers between 100 and 1500. 図8aに示すように、レイノルズ数は400未満で1200以上ではmaeが増加しており、これは100から1500までのレイノルズ数の範囲のmaeを表す。 0.63
Figure 8b shows the temporal evolution of the lift coefficient (vertical component of the integral of the pressure forces on the cylinder walls) for simulations with Re = 400, 500, 1000 and 1200 (with H = 5). 図8bは、re = 400, 500, 1000, 1200(h = 5)のシミュレーションのためのリフト係数(シリンダー壁の圧力力の積分の垂直成分)の時間的発展を示しています。 0.80
It can be noticed that for Re = 500 and 1000, both at the edge of our training range, the ground truth (continuous lines) and the predictions (dotted lines) match very well over the entire simulation time. Re = 500 と 1000 の場合、トレーニング範囲の端において、基底真理(連続線)と予測(ドット線)がシミュレーション時間全体にわたって非常によく一致していることに気付きます。 0.72
For Re = 400 and 1200 the lift predictions are qualitatively correct but begin to differ slightly in amplitude and phase. Re = 400 および 1200 の場合、リフト予測は定性的に正しいが、振幅と位相はわずかに異なる。 0.83
The reason for the limited extrapolation may be the complexity of the N-S equations, which result into shorter wakes and higher frequencies as the Reynolds number is increased. 限定外挿の理由は、N-S方程式の複雑さであり、レイノルズ数が増加するにつれてより短いウェイクとより高い周波数が生じる。 0.74
Multiple scales. We evaluate the accuracy of MultiScaleGNN with L = 1, 2, 3 and 4; the architectural details of each model are included in Appendix B. 複数のスケール。 我々は,L = 1, 2, 3, 4 の MultiScaleGNN の精度を評価し,各モデルのアーキテクチャの詳細を Appendix B に含めている。 0.82
Tables 1 and 2 collect the MAE for the last time-point and the mean of all the time-points on the testing datasets. 表1と表2は、最後のタイムポイントとテストデータセット上のすべてのタイムポイントの平均のMAEを収集する。 0.75
Incompressible fluids have a global behaviour since pressure waves travel at an infinite speed. 非圧縮性流体は圧力波が無限の速度で移動するため、大域的な挙動を持つ。 0.62
The addition of coarser layers helps the network learn this characteristic and achieve significantly lower errors. 粗い層を追加することで、ネットワークはこの特性を学習し、エラーを大幅に低減できる。 0.67
For dataset NSMidRe, within the training regime of Re, and NSHighRe there is a clear benefit from using four scales. データセット NSMidRe では,Re と NSHighRe のトレーニング体制内で 4 つのスケールを使用することのメリットは明らかだ。 0.81
Interestingly, dataset NSLowRe shows a clear gain only when using two levels. 興味深いことに、データセットのNSLowReは2つのレベルを使用する場合にのみ明確なゲインを示す。 0.51
This may be in part due to this dataset being in the extrapolation regime of Re. これは、このデータセットがreのexpolation regimeにあるためでもあるかもしれない。 0.59
In contrast, for the advection datasets, the MAE does not substantially decrease when using an increasing number of levels. 対照的に、アドベクションデータセットでは、より多くのレベルを使用すると、MAEは大幅に低下しない。 0.56
In advection, information is propagated only locally and at a finite speed. 対流では、情報は局所的および有限速度でのみ伝播される。 0.74
However, an accurate advection model must guarantee that it propagates the nodal information at least as fast as the velocity field driving the advection, similar to the Courant–Friedrichs–Lewy (CFL) condition used in numerical analysis. しかし、正確なadvectionモデルは、数値解析で使われるcourant–friedrichs–lewy(cfl)条件と同様に、少なくともそのadvectionを駆動する速度場と同じ速さでnodal情報を伝播することを保証する必要がある。 0.66
In MultiScaleGNN, the coarser graphs help to satisfy this condition, while the original graph maintains a detailed representation of structures in the MultiScaleGNNでは、粗グラフがこの条件を満たすのに役立ち、元のグラフは構造を詳細に表現している。 0.77
7 7 0.85
英語(論文から抽出)日本語訳スコア
Figure 7: Ground truth and MultiScaleGNN predictions for the horizontal velocity field, u, vertical velocity field, v, and pressure field, p, after 99 time-steps for Re = 700 [video]. 図7: 水平速度場, u, 垂直速度場, v, 圧力場, p, 99時間経過後のRe = 700[ビデオ]に対する地中真理とマルチスケールGNNの予測。 0.77
(a) Reynolds vs MAE (a)レイノルズ対MAE 0.54
(b) Lift coefficient Figure 8: (a) MAE over 99 time-points for different Reynolds numbers. (b)リフト係数 図8: (a)異なるレイノルズ数に対して99のタイムポイントを超えるメイ。 0.71
The grey region indicates the interpolation region. グレー領域は補間領域を示す。 0.67
(b) Lift coefficient for Re = 400, 500, 1000, 1200. (b)re=400,500,1000,1200のリフト係数。 0.71
The continuos lines are the ground truth, whereas the dotted lines are the predictions. 連続線は基底真理であり、点線は予測である。 0.55
advected fields. 破壊されたフィールド 0.47
Thus, GNNs for simulating both global and local continuum physics can benefit from learning information at multiple scales. したがって、大域的および局所連続体物理学の両方をシミュレートするgnnは、複数のスケールで情報を学習することで恩恵を受けることができる。 0.49
As a comparison to Pfaff, et al (2020) [17], a GNN with 16 sequential MP-layers (GN-Blocks) results in a MAE of 5.852 × 10−2 on our NSMidRe dataset; whereas MultiScaleGNN with the same number and type of MP layers, but distributed among 3 scales, results in a lower MAE of 3.201 × 10−2. Pfaff, et al (2020) [17] と比較すると、16個の連続MP層 (GN-Blocks) を持つ GNN は NSMidRe データセット上の MAE が 5.852 × 10−2 となるのに対し、MultiScaleGNN は同じ数のMP層と型を持つが、3つのスケールに分散し、より低い MAE は 3.201 × 10−2 となる。 0.79
Table 1: MAE ×10−2 on the advection testing sets for MultiScaleGNN models with L = 1, 2, 3, 4 Datasets 表1: L = 1, 2, 3, 4 データセットを持つ MultiScaleGNN モデルの対流試験集合上の MAE ×10−2 について 0.81
L = 2 L = 4 L = 2 L = 4 0.85
All L = 3 All すべて L = 3 すべて 0.78
Step 49 Step 49 ステップ49 ステップ49 0.76
All L = 1 All すべて L = 1 すべて 0.78
Step 49 AdvTaylor AdvCircle AdvCircleAng AdvSquare AdvEllipseH AdvEllipseV AdvSplines AdvInCir ステップ49 AdvTaylor AdvCircle AdvCircleAng AdvSquare AdvEllipseH AdvEllipseV AdvSplines AdvInCir 0.80
7.794 3.508 3.880 3.765 3.508 3.770 4.021 9.886 7.794 3.508 3.880 3.765 3.508 3.770 4.021 9.886 0.42
3.661 1.758 1.923 1.853 1.758 1.867 1.957 6.008 3.661 1.758 1.923 1.853 1.758 1.867 1.957 6.008 0.42
Step 49 7.055 3.119 3.618 3.493 3.119 3.748 3.960 10.755 Step 49 7.055 3.119 3.618 3.493 3.119 3.748 3.960 10.755 0.48
3.157 1.547 1.762 1.689 1.547 1.853 1.876 6.298 3.157 1.547 1.762 1.689 1.547 1.853 1.876 6.298 0.42
7.424 2.986 3.464 3.279 2.986 3.450 3.720 14.948 7.424 2.986 3.464 3.279 2.986 3.450 3.720 14.948 0.42
3.355 1.475 1.689 1.571 1.475 1.708 1.758 8.491 3.355 1.475 1.689 1.571 1.475 1.708 1.758 8.491 0.42
7.626 3.486 3.493 3.219 3.486 3.334 3.599 9.670 7.626 3.486 3.493 3.219 3.486 3.334 3.599 9.670 0.42
3.441 1.629 1.690 1.556 1.629 1.653 1.705 5.808 3.441 1.629 1.690 1.556 1.629 1.653 1.705 5.808 0.42
Discretisation independence. MultiScaleGNN processes the relative position between neighbouring nodes, but it does not consider the absolute position of nodes. 離散独立。 マルチスケールgnnは隣接ノード間の相対位置を処理するが、ノードの絶対位置は考慮しない。 0.71
It was also trained with random node distributions for each training example. また、トレーニング例ごとにランダムなノード分布をトレーニングした。 0.75
This ensures MultiScaleGNN is independent to the set of nodes V 1 chosen to discretise the physical domain. これにより、MultiScaleGNNは物理ドメインを識別するために選択されたノードV1の集合に独立している。 0.64
To demonstrate this, we consider a simulation from the AdvCircleAng dataset (see Figure 1a). これを示すために、AdvCircleAngデータセットからのシミュレーションを検討する(図1a参照)。 0.76
Figure 9a shows the MAE for a number of V 1 sets, 図9aは、V1 の集合の MAE を示しています。 0.75
8 8 0.85
英語(論文から抽出)日本語訳スコア
Table 2: MAE ×10−2 on the N-S testing sets for MultiScaleGNN models with L = 1, 2, 3, 4 Datasets 表2: L = 1, 2, 3, 4データセットを持つMultiScaleGNNモデルのN-SテストセットにおけるMAE ×10−2 0.82
L = 3 L = 1 L = 3 L = 1 0.85
L = 2 L = 4 L = 2 L = 4 0.85
Step 99 3.95 11.058 8.936 ステップ99 3.95 11.058 8.936 0.60
All 3.201 7.466 7.17 全3.201 7.466 7.17 0.48
Step 99 3.693 11.556 9.085 ステップ99 3.693 11.556 9.085 0.54
All 3.032 7.603 6.822 全3.032 7.603 6.822 0.48
NSMidRe NSLowRe NSHighRe NSMidRe NSLowRe NSHighRe 0.85
Step 99 13.028 12.056 16.176 ステップ99 13.028 12.056 16.176 0.53
All 8.033 8.193 11.42 全 8.033 8.193 11.42 0.51
Step 99 4.731 9.756 9.949 ステップ99 4.731 9.756 9.949 0.55
All 3.666 6.861 7.385 3.666 6.861 7.385 0.52
with nodes evenly distributed on the domain. ドメイン上に均等に分散したノードです 0.71
It can be seen that the MAE decreases linearly as the mean distance-to-neighbou r is reduced – at least within the interval shown. MAEは、少なくとも示す間隔内で、平均隣り合う距離が減少するにつれて直線的に減少する。 0.70
Figure 9a also shows how the inference time per time-step increases exponentially as the spatial resolution is increased. 図9aはまた、空間分解能が増大するにつれて、時間ステップ当たりの推測時間が指数関数的に増加することを示す。 0.57
For this reason, the V 1 sets we feed to MultiScaleGNN include a higher node count around solid walls. そのため、MultiScaleGNNにフィードするV1セットには、ソリッドウォール周辺のノード数が高く含まれています。 0.70
As an example, the nodes V 1 used for the simulation depicted in Figure 1a are represented in Figure 9b. 例として、図1aに示すシミュレーションに使用されるノードV1を図9bに示す。 0.86
(a) (b) Figure 9: (a) For sample in Figure 1a., the MAE over 49 time-points and the inference time per time-step for a number of quasi-uniform discretisations. (a) (b) 図9: (a) 図1aのサンプルの場合、49の時間点を超えるmaeと、いくつかの準一様離散化の時間ステップあたりの推論時間。 0.83
(b) V 1 nodes used for the simulation shown in Figure 1a. (b)図1aに示すシミュレーションに使用されるv1ノード。 0.88
Adaptive remeshing is a technique used by numerical solvers to ensure sufficient resolution is present where needed in the computational domain. アダプティブ・リメッシング(adaptive remeshing)は、数値解法者が計算領域で必要なときに十分な解像度を確保するために使用する手法である。
訳抜け防止モード: アダプティブリメッシングは数値解法で用いられる技法である 計算領域で必要なときに、十分な解像度が確保できる。
0.67
It dynamically modifies the spatial discretisation at every time-step. 時間ステップ毎に空間的離散化を動的に修正する。 0.58
Likewise, we implemented an algorithm to locally increase or decrease the spatial resolution of V 1 before every model evaluation. 同様に、モデル評価毎にV1の空間分解能を局所的に増加または減少させるアルゴリズムを実装した。 0.74
Our algorithm increases the node count where the gradients of u are higher and decreases it where these are lower. 我々のアルゴリズムは、uの勾配が高いノード数を増やし、これらが低いノード数を減少させる。 0.73
Figure 1b shows the u field predicted by MultiScaleGNN combined with this technique. 図1bは、MultiScaleGNNが予測したuフィールドとこのテクニックの組み合わせを示している。 0.58
It can be seen that the resolution is reduced far from the wake and increased close to the cylinder walls and on the vortices travelling downstream. 分解能は後流から遠く離れて減少し、シリンダー壁や下流の渦に近くなった。
訳抜け防止モード: 解像度が後流から遠く離れているのがわかります シリンダーの壁に近くなり 下流の渦も増えました
0.50
Adaptive coarsening/refinement allowed us to achieved an 11% reduction of the MAE at the 99th time-point on the NSMidRe dataset. 適応的粗大化/縮小により、NSMidReデータセットの99番目の時点において、MAEを11%削減することができた。 0.56
More details are included in Appendix C. 詳細はAppendix Cに記載されている。 0.69
Computational efficiency. We compare MultiScaleGNN and the spectral/hp element numerical solver [2] used for generating the training and testing datasets. 計算効率。 我々は、MultiScaleGNNとスペクトル/hp要素数値解法[2]を比較し、データセットの生成とテストを行う。 0.69
For advection, MultiScaleGNN simulations are one order of magnitude faster when they run on a CPU, and almost three orders of magnitude faster on a GPU. アドベクションの場合、マルチスケールgnnシミュレーションは、cpu上で実行した場合の1桁の高速化と、gpu上での3桁の高速化である。 0.62
The inference time per time-step for AdvTaylor is around 30 ms, and around 90 ms for the remaining testing datasets on a Tesla T4 GPU. AdvTaylorのタイムステップ毎の推論時間は、Tesla T4 GPU上での残りのテストデータセットで約30ms、約90msである。 0.76
For the N-S equations, MultiScaleGNN achieves an speed-up of three orders of magnitude running on a CPU, and four orders of magnitude on a Tesla T4 GPU; with an inference time per time-step of 50 ms on a Tesla T4 GPU. N-S方程式では、MultiScaleGNNは、CPU上での3桁のスピードアップと、Tesla T4 GPU上での4桁のスケールアップを実現している。
訳抜け防止モード: n - s の方程式では、マルチスケールgnnはcpu上で3桁までの速度を達成する。 そしてtesla t4 gpuは4桁、推論時間は1時間あたり50ミリ秒、tesla t4 gpuは50ミリ秒だ。
0.68
6 Conclusion MultiScaleGNN is a novel multi-scale GNN model for inferring mechanics on continuous systems discretised into unstructured sets of nodes. 6 結論 MultiScaleGNNは、非構造化ノード集合に識別された連続システムの力学を推測するための、新しいマルチスケールGNNモデルである。
訳抜け防止モード: 6 結論 MultiScaleGNNは、新しいマルチスケールGNNモデルである 連続系の力学を推定する ノードの非構造集合に識別する
0.75
Unstructured discretisations allow complex domains to be accurately represented and the node count to be adjusted over space. 非構造的な決定により、複素領域は正確に表現され、ノード数は空間上で調整される。 0.59
Multiple coarser levels allow high and low-resolution mechanics to be efficiently captured. 複数の粗いレベルは、高解像度と低解像度のメカニクスを効率的に捉えることができる。 0.44
For spatially local problems, such as advection, MP layers in coarse graphs guarantee that the information is diffused at the correct speed while MP layers in finer graphs provide sharp resolution of the fields. 対流のような空間的に局所的な問題に対して、粗いグラフのMP層は情報を正しい速度で拡散することを保証し、より微細なグラフのMP層はフィールドのシャープな解像度を提供する。 0.67
In global 9 世界中で 9 0.76
英語(論文から抽出)日本語訳スコア
and local problems, such as incompressible fluid dynamics, the coarser graphs are particularly advantageous, since they enable global characteristics such as pressure waves to be effectively learnt. そして、非圧縮性流体力学のような局所的な問題、特に粗いグラフは、圧力波のような大域的な特性を効果的に学習できるので、特に有利である。 0.66
MultiScaleGNN interpolates to unseen spatial discretisations of the physical domains, allowing it to adopt efficient discretisations and to dynamically and locally modify them to further improve the accuracy. マルチスケールgnnは物理的領域の空間的離散化に補間し、効率的な離散化を採用し、それらを動的かつ局所的に修正することで精度をさらに向上させる。 0.65
MultiScaleGNN also generalises to advection on complex domains and velocity fields and it interpolates to unseen Reynolds numbers in fluid dynamics. MultiScaleGNNは複雑な領域と速度場の対流を一般化し、流体力学におけるレイノルズ数に補間する。 0.75
Inference is between two and four orders of magnitude faster than with the high-order solver used for generating the training datasets. 推論は、トレーニングデータセットを生成するために使用される高階ソルバよりも2~4桁高速である。 0.64
This work is a significant advancement in the design of flexible, accurate and efficient neural simulators. この研究は、柔軟で正確で効率的な神経シミュレータの設計において重要な進歩である。 0.72
References [1] George Karniadakis and Spencer Sherwin. ジョージ・カルニアダキス(George Karniadakis)とスペンサー・シャーウィン(Spencer Sherwin)。 0.53
Spectral/hp element methods for computational fluid 計算流体のスペクトル/hp要素法 0.81
dynamics. Oxford University Press, 2013. ダイナミクス。 オックスフォード大学出版局、2013年。 0.65
[2] Chris D Cantwell, David Moxey, Andrew Comerford, Alessandro Bolis, Gabriele Rocco, Gianmarco Mengaldo, Daniele De Grazia, Sergey Yakovlev, J-E Lombard, Dirk Ekelschot, et al Nektar++: An open-source spectral/hp element framework. [2] Chris D Cantwell, David Moxey, Andrew Comerford, Alessandro Bolis, Gabriele Rocco, Gianmarco Mengaldo, Daniele De Grazia, Sergey Yakovlev, J-E Lombard, Dirk Ekelschot, et al Nektar++ – オープンソースのスペクトル/hp要素フレームワーク。 0.95
Computer physics communications, 192:205–219, 2015. 計算機物理通信, 192:205–219, 2015 0.69
[3] Jonathan Tompson, Kristofer Schlachter, Pablo Sprechmann, and Ken Perlin. Jonathan Tompson氏、Kristofer Schlachter氏、Pablo Sprechmann氏、Ken Perlin氏。 0.65
Accelerating eulerian fluid simulation with convolutional networks. 畳み込みネットワークを用いたオイラー流体シミュレーションの高速化 0.71
In International Conference on Machine Learning, pages 3424–3433. 国際機械学習会議において、3424-3433頁。 0.75
PMLR, 2017. 2017年、PMLR。 0.66
[4] Byungsoo Kim, Vinicius C Azevedo, Nils Thuerey, Theodore Kim, Markus Gross, and Barbara Solenthaler. [4]Byungsoo Kim, Vinicius C Azevedo, Nils Thuerey, Theodore Kim, Markus Gross, Barbara Solenthaler。 0.75
Deep fluids: A generative network for parameterized fluid simulations. 深層流体:パラメータ化流体シミュレーションのための生成ネットワーク。 0.88
In Computer Graphics Forum. コンピュータグラフィックスフォーラム。 0.54
Wiley Online Library, 2019. Wiley Online Library、2019年。 0.84
[5] Alvaro Sanchez-Gonzalez, Jonathan Godwin, Tobias Pfaff, Rex Ying, Jure Leskovec, and Peter Battaglia. Alvaro Sanchez-Gonzalez氏、Jonathan Godwin氏、Tobias Pfaff氏、Rex Ying氏、Jure Leskovec氏、Peter Battaglia氏。 0.77
Learning to simulate complex physics with graph networks. グラフネットワークで複雑な物理をシミュレートする学習。 0.85
In International Conference on Machine Learning, pages 8459–8468. 機械学習に関する国際会議』8459-8468頁。 0.77
PMLR, 2020. PMLR、2020年。 0.88
[6] Xiaoxiao Guo, Wei Li, and Francesco Iorio. 6]Xiaoxiao Guo、Wei Li、Francesco Iorio。 0.57
Convolutional neural networks for steady flow approximation. 定常流近似のための畳み込みニューラルネットワーク 0.68
In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pages 481–490, 2016. 第22回知識発見・データマイニング国際会議(acm sigkdd international conference on knowledge discovery and data mining)第481-490頁。 0.70
[7] Emre Yilmaz and Brian German. Emre Yilmaz氏とBrian German氏。 0.60
A convolutional neural network approach to training predictors for airfoil performance. 航空機性能予測器の訓練のための畳み込みニューラルネットワークアプローチ 0.75
In 18th AIAA/ISSMO multidisciplinary analysis and optimization conference, page 3660, 2017. 第18回 aiaa/issmo multidisciplinary analysis and optimization conference, 3660, 2017 ページ 0.78
[8] Yao Zhang, Woong Je Sung, and Dimitri N Mavris. [8]Yao Zhang、Woong Je Sung、Dimitri N Mavris。 0.63
Application of convolutional neural network to predict airfoil lift coefficient. 畳み込みニューラルネットワークの翼リフト係数予測への応用 0.63
In 2018 AIAA/ASCE/AHS/ASC Structures, Structural Dynamics, and Materials Conference, page 1903, 2018. 2018年、AIAA/ASCE/AHS/ASC Structures, Structure Dynamics, and Materials Conference, page 1903, 2018。 0.80
[9] Nils Thuerey, Konstantin Weissenow, Lukas Prantl, and Xiangyu Hu. [9]Nils Thuerey,Konstantin Weissenow,Lukas Prantl,Xiangyu Hu。 0.55
Deep Learning Methods for Reynolds-Averaged Navier-Stokes Simulations of Airfoil Flows. レイノルズ平均navier-stokesシミュレーションによる翼流れの深層学習法 0.75
AIAA Journal, 58(1):15–26, oct 2018. AIAA Journal, 58(1):15–26, oct 2018。 0.87
[10] Steffen Wiewel, Moritz Becher, and Nils Thuerey. 10] Steffen Wiewel, Moritz Becher, Nils Thuerey。 0.65
Latent space physics: Towards learning the 潜在宇宙物理学: 学習に向けて 0.78
temporal evolution of fluid flow. 流体の流れの時間的進化 0.85
In Computer Graphics Forum. コンピュータグラフィックスフォーラム。 0.54
Wiley Online Library, 2019. Wiley Online Library、2019年。 0.84
[11] Xiangyun Xiao, Yanqing Zhou, Hui Wang, and Xubo Yang. [11]Xiangyun Xiao、Yanqing Zhou、Hui Wang、Xubo Yang。 0.66
A novel cnn-based poisson solver for fluid simulation. 流体シミュレーションのための新しいcnnベースのポアソン解法 0.73
IEEE transactions on visualization and computer graphics, 26(3):1454–1465, 2018. IEEEによる可視化とコンピュータグラフィックスのトランザクション、26(3):1454–1465, 2018。 0.75
[12] Mario Lino, Chris Cantwell, Stathi Fotiadis, Eduardo Pignatelli, and Anil Anthony Bharath. 12]Mario Lino、Chris Cantwell、Stathi Fotiadis、Eduardo Pignatelli、Anil Anthony Bharath。 0.68
Simulating surface wave dynamics with convolutional networks. 畳み込みネットワークによる表面波のダイナミクスのシミュレーション 0.85
In NeurIPS Workshop on Interpretable Inductive Biases and Physically Structured Learning, 2020. NeurIPS Workshop on Interpretable Inductive Biases and Physically Structured Learning, 2020 に参加して 0.87
[13] Ian Goodfellow, Yoshua Bengio, Aaron Courville, and Yoshua Bengio. [13]Ian Goodfellow、Yoshua Bengio、Aaron Courville、Yoshua Bengio。 0.67
Deep learning. MIT press Cambridge, 2016. 深層学習。 MIT 2016年、ケンブリッジ。 0.70
[14] Peter W Battaglia, Jessica B Hamrick, Victor Bapst, Alvaro Sanchez-Gonzalez, Vinicius Zambaldi, Mateusz Malinowski, Andrea Tacchetti, David Raposo, Adam Santoro, Ryan Faulkner, et al Relational inductive biases, deep learning, and graph networks. Peter W Battaglia, Jessica B Hamrick, Victor Bapst, Alvaro Sanchez-Gonzalez, Vinicius Zambaldi, Mateusz Malinowski, Andrea Tacchetti, David Raposo, Adam Santoro, Ryan Faulkner, et al Relational Inductive biases, Deep Learning, Graph Network。 0.77
arXiv preprint arXiv:1806.01261, 2018. arXiv preprint arXiv:1806.01261, 2018 0.79
[15] Zonghan Wu, Shirui Pan, Fengwen Chen, Guodong Long, Chengqi Zhang, and S Yu Philip. [15]Zonghan Wu、Shirui Pan、Fengwen Chen、Guodong Long、Chengqi Zhang、S Yu Philip。 0.68
A comprehensive survey on graph neural networks. グラフニューラルネットワークに関する総合的な調査 0.73
IEEE Transactions on Neural Networks and Learning Systems, 2020. IEEE Transactions on Neural Networks and Learning Systems, 2020 0.74
10 10 0.85
英語(論文から抽出)日本語訳スコア
[16] Justin Gilmer, Samuel S. Schoenholz, Patrick F. Riley, Oriol Vinyals, and George E. Dahl. 16]Justin Gilmer, Samuel Schoenholz, Patrick F. Riley, Oriol Vinyals, George E. Dahl. 0.78
Neural message passing for quantum chemistry. 量子化学のためのニューラルメッセージパッシング 0.74
In 34th International Conference on Machine Learning, ICML 2017, 2017. 第34回International Conference on Machine Learning, ICML 2017で発表された。 0.79
[17] Tobias Pfaff, Meire Fortunato, Alvaro Sanchez-Gonzalez, and Peter W Battaglia. Tobias Pfaff氏、Meire Fortunato氏、Alvaro Sanchez-Gonzalez氏、Peter W Battaglia氏。 0.75
Learning mesh-based simulation with graph networks. グラフネットワークを用いたメッシュベースシミュレーションの学習 0.76
In (accepted) 38th International Conference on Machine Learning, ICML 2021, 2021. 第38回機械学習国際会議(icml 2021, 2021)に参加して 0.74
[18] Peter W Battaglia, Razvan Pascanu, Matthew Lai, Danilo Rezende, and Koray Kavukcuoglu. 18]Peter W Battaglia, Razvan Pascanu, Matthew Lai, Danilo Rezende, Koray Kavukcuoglu 0.65
Interaction networks for learning about objects, relations and physics. 物体、関係、物理学を学ぶための相互作用ネットワーク。 0.77
In 38th Neural Information Processing Systems, NeurIPS 2016, 2016. 第38回neural information processing systems, neurips 2016年。 0.65
[19] Wei Tang, Tao Shan, Xunwang Dang, Maokun Li, Fan Yang, Shenheng Xu, and Ji Wu. [19]唐・唐・唐・唐・唐・雲王・周・周・周・周・時武。
訳抜け防止モード: [19 ]唐・唐・唐・唐・唐・宋・唐 Maokun Li、Fan Yang、Shenheng Xu、Ji Wu。
0.72
Study on a Poisson’s equation solver based on deep learning technique. 深層学習手法に基づくポアソン方程式解法の研究 0.53
2017 IEEE Electrical Design of Advanced Packaging and Systems Symposium, EDAPS 2017, 2018-Janua:1–3, 2018. 2017 IEEE Electrical Design of Advanced Packaging and Systems Symposium, EDAPS 2017-Janua:1–3, 2018 0.94
[20] Ali Girayhan Özbay, Sylvain Laizet, Panagiotis Tzirakis, Georgios Rizos, and Björn Schuller. 20] ali girayhan özbay, sylvain laizet, panagiotis tzirakis, georgios rizos, björn schuller。 0.58
Poisson CNN: Convolutional Neural Networks for the Solution of the Poisson Equation with Varying Meshes and Dirichlet Boundary Conditions, 2019. poisson cnn:convolutional neural networks for the solution of the poisson equation with various meshes and dirichlet boundary conditions, 2019(英語) 0.75
[21] Tharindu P Miyanawala and Rajeev K Jaiman. [21]Tharindu P MiyanawalaとRajeev K Jaiman。 0.74
A novel deep learning method for the predictions of current forces on bluff bodies. ブラフ体上の電流力予測のための新しい深層学習法 0.54
In Proceedings of the ASME 2018 37th International Conference on Ocean, Offshore and Arctic Engineering, June 2018. 2018年6月、ASME 2018 37th International Conference on Ocean, Offshore and Arctic Engineering に参加。 0.78
[22] Sangseung Lee and Donghyun You. [22]Sangseung LeeとDonghyun You。 0.74
Data-driven prediction of unsteady flow over a circular 円面上の非定常流れのデータ駆動予測 0.80
cylinder using deep learning. 深層学習のシリンダーです 0.60
Journal of Fluid Mechanics, 879:217–254, 2019. Journal of Fluid Mechanics, 879:217–254, 2019 0.85
[23] William Sorteberg, Stef Garasto, Alison Pouplin, Chris Cantwell, and Anil A. Bharath. [23]William Sorteberg, Stef Garasto, Alison Pouplin, Chris Cantwell, Anil A. Bharath。 0.81
Approximating the Solution to Wave Propagation using Deep Neural Networks. 深層ニューラルネットワークを用いた波動伝播に対する解の近似化 0.75
In NeurIPS Workshop on Modeling the Physical World: Perception, Learning, and Control, December 2018. NeurIPS Workshop on Modeling the Physical World: Perception, Learning, and Control”. 2018年12月閲覧。 0.90
[24] Stathi Fotiadis, Eduardo Pignatelli, Mario Lino, Chris Cantwell, Amos Storkey, and Anil A. Bharath. Stathi Fotiadis氏、Eduardo Pignatelli氏、Mario Lino氏、Chris Cantwell氏、Amos Storkey氏、Anil A. Bharath氏。 0.78
Comparing recurrent and convolutional neural networks for predicting wave propagation. 波伝搬予測のための再帰ニューラルネットワークと畳み込みニューラルネットワークの比較 0.69
In ICLR Workshop on Deep Neural Models and Differential Equations, 2020. iclr workshop on deep neural models and differential equation, 2020 (英語) 0.70
[25] Michael B Chang, Tomer Ullman, Antonio Torralba, and Joshua B Tenenbaum. Michael B Chang氏、Tomer Ullman氏、Antonio Torralba氏、Joshua B Tenenbaum氏。 0.68
A compositional object-based approach to learning physical dynamics. 物理力学を学ぶための合成オブジェクトベースアプローチ。 0.70
In 5th International Conference on Learning Representations, ICLR 2017, 2017. 第5回国際学習表現会議、ICLR 2017、2017。 0.68
[26] Alvaro Sanchez-Gonzalez, Nicolas Heess, Jost Tobias Springenberg, Josh Merel, Martin Riedmiller, Raia Hadsell, and Peter Battaglia. Alvaro Sanchez-Gonzalez氏、Nicolas Heess氏、Jost Tobias Springenberg氏、Josh Merel氏、Martin Riedmiller氏、Raia Hadsell氏、Peter Battaglia氏。
訳抜け防止モード: [26 ] Alvaro Sanchez - Gonzalez, Nicolas Heess, Jost Tobias Springenberg, Josh Merel氏、Martin Riedmiller氏、Raia Hadsell氏、Peter Battaglia氏。
0.89
Graph networks as learnable physics engines for inference and control. 推論と制御のための学習可能な物理エンジンとしてのグラフネットワーク。 0.64
35th International Conference on Machine Learning, ICML 2018, 10:7097–7117, 2018. 35th International Conference on Machine Learning, ICML 2018, 10:7097–7117, 2018 0.90
[27] Yunzhu Li, Jiajun Wu, Russ Tedrake, Joshua B Tenenbaum, and Antonio Torralba. [27]ユンツー・リー、ウジュジュン・ウー、ラス・テドレーク、ジョシュア・B・テネンバウム、アントニオ・トーラルバ。 0.48
Learning particle dynamics for manipulating rigid bodies, deformable objects, and fluids. 剛体、変形可能な物体、流体を操作するための粒子動力学の学習 0.77
In 7th International Conference on Learning Representations, ICLR 2019, 2019. 第7回国際学習表現会議 iclr 2019, 2019 参加報告 0.70
[28] Damian Mrowca, Chengxu Zhuang, Elias Wang, Nick Haber, Li F Fei-Fei, Josh Tenenbaum, and Daniel L Yamins. [28]Damian Mrowca、Chengxu Zhuang、Elias Wang、Nick Haber、Li F Fei-Fei、Josh Tenenbaum、Daniel L Yamins。 0.70
Flexible neural representation for physics prediction. 物理予測のための柔軟な神経表現 0.74
In Advances in neural information processing systems, pages 8799–8810, 2018. 神経情報処理システムの進歩により、2018年、8799-8810頁。 0.70
[29] Yunzhu Li, Jiajun Wu, Jun Yan Zhu, Joshua B. Tenenbaum, Antonio Torralba, and Russ Tedrake. 29]yunzhu li、jiajun wu、jun yan zhu、joshua b. tenenbaum、antonio torralba、russ tedrake。
訳抜け防止モード: [29 ]ユンチュン・リー、ジアン・ウー、ジュン・ヤン・ジュ Joshua B. Tenenbaum、Antonio Torralba、Russ Tedrake。
0.65
Propagation networks for model-based control under partial observation. 部分観測によるモデルベース制御のための伝搬ネットワーク 0.77
Proceedings - IEEE International Conference on Robotics and Automation, 2019-May:1205–1211, 2019. Proceedings - IEEE International Conference on Robotics and Automation, 2019–May:1205–1211, 2019。 0.82
[30] Damian Mrowca, Chengxu Zhuang, Elias Wang, Nick Haber, Li Fei-Fei, Joshua B. Tenenbaum, and Daniel L.K. [30]Damian Mrowca、Chengxu Zhuang、Elias Wang、Nick Haber、Li Fei-Fei、Joshua B. Tenenbaum、Daniel L.K。 0.77
Yamins. Flexible neural representation for physics prediction. ヤミンだ 物理予測のための柔軟な神経表現 0.62
Advances in Neural Information Processing Systems, 2018-Decem:8799–8810, 2018. Neural Information Processing Systems, 2018-Decem:8799–8810, 2018 0.85
[31] Alvaro Sanchez-Gonzalez, Victor Bapst, Kyle Cranmer, and Peter Battaglia. Alvaro Sanchez-Gonzalez氏、Victor Bapst氏、Kyle Cranmer氏、Peter Battaglia氏。 0.80
Hamiltonian graph networks with ode integrators. ハミルトングラフ オード・インテグレーターのネットワークです 0.58
arXiv preprint arXiv:1909.12790, 2019. arXiv preprint arXiv:1909.12790, 2019 0.81
[32] Ferran Alet, Adarsh K Jeewajee, Maria Bauza, Alberto Rodriguez, Tomas Lozano-Perez, and Leslie Pack Kaelbling. Ferran Alet氏、Adarsh K Jeewajee氏、Maria Bauza氏、Alberto Rodriguez氏、Tomas Lozano-Perez氏、Leslie Pack Kaelbling氏。 0.72
Graph element networks: adaptive, structured computation and memory. グラフ要素ネットワーク:適応的で構造化された計算とメモリ。 0.76
arXiv preprint arXiv:1904.09019, 2019. arXiv preprint arXiv:1904.09019, 2019 0.81
[33] Filipe de Avila Belbute-Peres, Thomas Economon, and Zico Kolter. [33]Filipe de Avila Belbute-Peres, Thomas Economon, Zico Kolter 0.72
Combining differentiable pde solvers and graph neural networks for fluid flow prediction. 流動予測のための微分可能なpdeソルバとグラフニューラルネットワークの組み合わせ 0.66
In International Conference on Machine Learning, pages 2402–2411. 機械学習に関する国際会議』2402-2411頁。 0.76
PMLR, 2020. PMLR、2020年。 0.88
11 11 0.85
英語(論文から抽出)日本語訳スコア
[34] Hongyi Jiang and Liang Cheng. [34]本居江と梁成。 0.66
Large-eddy simulation of flow past a circular cylinder for 円柱を過ぎる流れの大規模渦シミュレーション 0.73
reynolds numbers 400 to 3900. レイノルズ数は400から3900。 0.63
Physics of Fluids, 33(3):034119, 2021. 流体物理学 33(3):034119, 2021年。 0.77
[35] Günter Klambauer, Thomas Unterthiner, Andreas Mayr, and Sepp Hochreiter. Günter Klambauer氏、Thomas Unterthiner氏、Andreas Mayr氏、Sepp Hochreiter氏。 0.65
Self-normalizing neural networks. 自己正規化 ニューラルネットワーク。 0.53
arXiv preprint arXiv:1706.02515, 2017. arXiv preprint arXiv:1706.02515, 2017 0.79
[36] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. 36]ジミー・レイ・バ、ジェイミー・ライアン・キロス、ジェフリー・e・ヒントン 0.50
Layer normalization. arXiv preprint 層正規化。 arXiv プレプリント 0.71
arXiv:1607.06450, 2016. arXiv:1607.06450, 2016 0.69
[37] Diederik P. Kingma and Jimmy Ba. [37]Diederik P. KingmaとJimmy Ba。 0.86
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. yoshua bengio and yann lecun, editors, 3rd international conference on learning representations, iclr 2015, san diego, ca, usa, may 7-9, 2015 conference track proceedings, 2015 (英語) 0.78
[38] Hervé Guillard. ハーヴェ・ギラード (Hervé Guillard)。 0.30
Node-nested multi-grid method with delaunay coarsening. delaunayの粗さを考慮したノードネストマルチグリッド法 0.58
Technical report, INRIA, 1993. 技術報告 1993年、デビュー。 0.54
A Datasets details Datasetsの詳細 0.78
A.1 Advection datasets a.1 アドベクションデータセット 0.65
We solved the two-dimensional advection equation using Nektar++, an spectral/hp element solver [1, 2]. 我々はスペクトル/hp要素解法Nektar++[1, 2]を用いて2次元対流方程式を解く。 0.80
The advection equation reads ∂ϕ ∂t 対流方程式は読む ∂φ ∂t 0.70
+ u(x, y) ∂ϕ ∂x + u(x, y) ∂φ ∂x 0.78
+ v(x, y) ∂ϕ ∂y + v(x, y) ∂φ ∂y である。 0.60
= 0, (9) where ϕ(t, x, y) is the advected field, and, u and v are the horizontal and vertical components of the velocity field respectively. = 0, (9) ここで φ(t, x, y) は対流場であり、u と v はそれぞれ速度場の水平成分と垂直成分である。 0.81
As initial condition, ϕ0, we take an scalar field derived from a two-dimensional Fourier series with M × N random coefficients, specifically 最初の条件 φ0 として、M × N のランダム係数を持つ2次元フーリエ級数に由来するスカラー場をとる。 0.79
M(cid:88) N(cid:88) m(cid:88) n(cid:88) 0.77
ϕ0 = cm,nϕm,n · exp ϕ0 = cm,nφm,n · exp 0.91
m=0 n=0 with ϕm,n = (cid:60) m=0 n=0 φm,n = (cid:60) 0.67
(cid:16) − 2(x − xc)2 − 2(x − xc)2(cid:17) (cid:16) (cid:16) − 2(x − xc)2 − 2(x − xc)2(cid:17) (cid:16) 0.96
(cid:17)(cid:27) (cid:17)(cid:27) 0.75
exp i2π(mx + ny) exp i2π(mx + ny) 0.88
. (cid:26) . (cid:26) 0.82
, (10) (11) , (10) (11) 0.85
Coefficients cm,n are sampled from a uniform distribution between 0 and 1, and, integers M and N are randomly selected between 3 and 8. 0 と 1 の間の均一分布から係数 cm,n をサンプリングし、3 と 8 の間で整数 M と N をランダムに選択する。 0.85
In equation (11), xc and yc are the coordinates of the centre of the domain. 方程式 (11) において、xc と yc は領域の中心の座標である。 0.81
The initial field ϕ0 is scaled to have a maximum equal to 1 and a minimum equal to −1. 初期体 φ0 は 1 に等しい最大値と −1 に等しい最小値を持つようスケールされる。 0.84
Figure 10a shows an example of ϕ0 with M = 5 and N = 7 on a squared domain. 図10aは、M = 5 と N = 7 を平方領域とする φ0 の例を示している。 0.81
We created training and testing datasets containing advection simulations with 50 time-points each, equispaced by a time-step size dt = 0.03. 時間ステップサイズ dt = 0.03 で等間隔化された,50 個の時間点を持つアドベクションシミュレーションを含むデータセットのトレーニングとテストを行った。 0.62
A summary of these datasets can be found in Table 3. これらのデータセットの要約は、テーブル3で見ることができる。 0.64
(a) (b) Figure 10: (a) Initial condition with with M = 5 and N = 7 from the AdvBox dataset. (a) (b) 図10: (a) advboxデータセットから m = 5 と n = 7 を持つ初期条件。 0.82
(b) One of the sets of nodes V 1 used during training. (b)訓練中に使用するノードV1の集合の1つ。 0.83
Training datasets. データセットのトレーニング。 0.57
We generated two training datasets: AdvBox with 1500 simulations and AdvInBox with 3000 simulations. 1500シミュレーションのAdvBoxと3000シミュレーションのAdvInBoxの2つのトレーニングデータセットを生成した。 0.69
In these datasets we impose a uniform velocity fields with random values for u and v, but constrained to u2 + v2 ≤ 1. これらのデータセットでは、u と v のランダムな値を持つ一様速度場を課すが、u2 + v2 ≤ 1 に制約される。 0.67
In dataset AdvBox the domain is a square (x ∈ [0, 1] × [0, 1]) with periodicity in x and y. データセット advbox では、領域は x と y の周期性を持つ正方形 (x ∈ [0, 1] × [0, 1]) である。 0.78
In dataset AdvInBox the domain is a rectangle (x ∈ [0, 1] × [0, 0.5]) with periodicity in y, a Dirichlet condition on the left boundary and a データセット AdvInBox では、領域は長方形 (x ∈ [0, 1] × [0, 0.5]) であり、y の周期性、左境界上のディリクレ条件と a である。 0.76
12 12 0.85
英語(論文から抽出)日本語訳スコア
homogeneous Neumann condition on the right boundary – as an additional constraint, u ≥ 0. 右境界上の同次ノイマン条件 - 追加の制約として u ≥ 0 である。 0.76
During training, a new set of nodes V 1 is selected at the beginning of every epoch. トレーニング中、各エポックの開始時に、新しいノードV1が選択される。 0.67
The node count was varied smoothly across the different regions of the domains, as illustrated in Figure 10b. ノード数は図10bに示すように、ドメインの異なる領域でスムーズに変化した。 0.74
The sets of node were created with Gmsh, a finite-element mesher. ノードの集合は有限要素メッシュであるGmshで作成された。 0.79
The element size parameter was set to 0.012 in the corners and the centre of the training domains, and set to 10 times that value at one random control point on each boundary. 要素サイズパラメータは、各領域の角と中心で0.012に設定され、各境界上の1つのランダム制御点の10倍に設定された。 0.72
The mean number of nodes in the AdvBox and AdvInBox datasets are 98002 and 5009 respectively. AdvBoxとAdvInBoxのデータセットの平均ノード数は、それぞれ98002と5009である。 0.73
√ 10 and 1/ √ Testing datasets. 10・1/ √ データセットのテスト。 0.69
We generated eight testing datasets, each of them containing 200 simulations. 200のシミュレーションを含む8つのテストデータセットを生成しました。 0.75
These datasets consider advection on more complex open and closed domains with non-uniform velocity fields. これらのデータセットは、非一様速度場を持つより複雑な開領域と閉領域のアドベクションを考える。 0.55
The domains employed are represented in Figure 11, and the testing datasets are listed in Table 3. 使用するドメインは図11に表示され、テストデータセットは表3にリストされる。 0.76
The velocity fields were obtained from the steady incompressible Navier-Stokes equations with Re = 1. 速度場は Re = 1 の定常非圧縮性ナビエ・ストークス方程式から得られた。 0.68
In dataset AdvTaylor the inner and outer walls spin at a velocity randomly sampled between −1 and 1. AdvTaylorデータセットでは、内壁と外壁は−1から1の間でランダムにサンプリングされた速度で回転する。 0.65
In datasets AdvCircle, AdvSquare, AdvEllipseH, AdvEllipseV and AdvSplines there is periodicity along x and y, and a horizontal flow rate between 0.2 and 0.75 is imposed. データセット advcircle, advsquare, advellipseh, advellipsev, advsplines には x と y に沿って周期性があり、0.2 から 0.75 までの水平流量が課される。 0.69
The obstacles inside the domains on the AdvSplines dataset are made of closed spline curves defined from six random points. advsplinesデータセットの領域内の障害は、6つのランダムな点から定義される閉じたスプライン曲線である。 0.71
Dataset AdvCircleAng is similar to AdvCircle, but the flow rate forms an angle between −45 deg and 45 deg with the x axis. データセット AdvCircleAng は AdvCircle と似ているが、流量は −45 deg と 45 deg の間に x 軸の角度を形成する。 0.85
The domain in dataset AdvInCir has periodicity along y, a Dirichlet condition on the left boundary (with 0.2 ≤ u2 + v2 ≤ 0.75 and −45 deg ≤ arctan(v/u) ≤ 45 deg), and a homogeneous Neumann condition on the right boundary. データセットのadvincirの領域はyに沿って周期性を持ち、左境界のディリクレ条件(0.2 ≤ u2 + v2 ≤ 0.75 と −45 deg ≤ arctan(v/u) ≤ 45 deg)と右境界の均質ノイマン条件を持つ。 0.80
The set of nodes V 1 were generated using Gmsh with an element size equal to 0.005 on the walls of the obstacles and 0.01 on the remaining boudaries. ノードの集合 V1 は Gmsh を用いて生成され、障害物の壁の要素サイズは 0.005 で、残りの境界線は 0.01 である。 0.74
(a) (d) (b) (a) (d) (b) 0.85
(e) (c) (f) (e) (c) (f) 0.85
Figure 11: Physical domains (black areas) on our testing datasets. 図11: テストデータセットの物理的なドメイン(黒い領域)。 0.82
Table 3: Advection training and testing datasets 表3: アドベクショントレーニングとデータセットのテスト 0.81
Dataset AdvBox AdvInBox AdvTaylor AdvCircle AdvCircleAng AdvSquare AdvEllipseH AdvEllipseV AdvSplines AdvIncir Dataset AdvBox AdvTaylor AdvCircle AdvCircleAng AdvSquare AdvEllipseH AdvEllipseV AdvSplines AdvIncir 0.78
Flow type Open, periodic in x and y フロー型 開き、x と y の周期的 0.75
Open, periodic in y y においてオープンで周期的な 0.53
Closed, Taylor-Couette flow Open, periodic in x and y Open, periodic in x and y Open, periodic in x and y Open, periodic in x and y Open, periodic in x and y Open, periodic in x and y 閉、テイラー・コートフローオープン、x と y の周期開、x と y の周期開、x と y の周期開、x と y の周期開、x と y の周期開、x と y の周期開、x と y の周期開、x と y の周期開
訳抜け防止モード: Closed, Taylor - Couette flow Open, periodic in x and y Open, x と y の周期的開き、x と y の周期的開き、 x と y の周期的開き、x と y の周期的開き、 x と y の周期
0.81
Open, periodic in y y においてオープンで周期的な 0.53
Domain [0, 1] × [0, 1] [0, 1] × [0, 0.5] Figure 11a Figure 11b Figure 11b Figure 11c Figure 11d Figure 11e Figure 11f Figure 11b 藩 [0, 1] × [0, 1] [0, 1] × [0, 0.5] 図11a 図11b 図11b 図11c 図11e 図11f 図11b 0.66
13 #Nodes 9601-10003 4894-5135 13 #Nodes 9601-10003 4894-5135 0.73
7207 19862 19862 19956 20210 20221 7207 19862 19862 19956 20210 20221 0.85
19862 19316-20389 19862 19316-20389 0.72
Train/Test Training Training Testing Testing Testing Testing Testing Testing Testing Testing トレーニング/テスト トレーニング テスト テスト テスト テスト テスト テスト 0.69
英語(論文から抽出)日本語訳スコア
A.2 Incompressible fluid dynamics datasets A.2 非圧縮性流体力学データセット 0.58
We solved the two-dimensional incompressible Navier-Stokes equation using the high-order solver Nektar++. 高次解法nektar++を用いて二次元非圧縮性navier-stokes方程式を解いた。 0.50
The Navier-Stokes equations read ナビエ・ストークス方程式を読む 0.48
∂u ∂t ∂v ∂t ∂u ∂t ∂v ∂t 0.65
+ u + u ∂u ∂x ∂v ∂x +u +u ∂u ∂x ∂v ∂x 0.69
+ v + v + ∂u ∂v ∂x ∂y = − ∂p ∂x = − ∂p ∂y +v +v + ∂u ∂v ∂x ∂y = − ∂p ∂x = − ∂p ∂y 0.77
∂u ∂y ∂v ∂y ∂u ∂y ∂v ∂y 0.65
= 0, + + 1 Re 1 Re = 0, + + 1 Re 1 Re 0.85
(cid:18) ∂2u (cid:18) ∂2v (cid:18) ∂2u(cid:18) ∂2v 0.62
∂x2 + ∂x2 + ∂x2 + ∂x2 + 0.71
(cid:19) (cid:19) (cid:19)(cid:19) 0.73
, , ∂2u ∂y2 ∂2v ∂y2 , , ∂2u ∂y2 ∂2v ∂y2 0.72
(12) (13) (14) (12) (13) (14) 0.85
where u(t, x, y) and v(t, x, y) are the horizontal and vertical components of the velocity field, p(t, x, y) is the pressure field, and Re is the Reynolds number. u(t, x, y) と v(t, x, y) が速度場の水平および垂直成分であり、p(t, x, y) が圧力場であり、Re がレイノルズ数である。 0.72
We consider the flow around an infinite vertical array of circular cylinder, with diameter D = 1, equispaced a distance H randomly sampled between 4D and 6D. 直径 D = 1 の無限垂直円柱のまわりの流れを、4D と 6D の間にランダムにサンプリングされた距離 H に等間隔で配置する。 0.79
The width of the domain is 7D and the cylinders axis is at 1.5D from the left boundary. 領域の幅は7Dであり、シリンダー軸は左境界から1.5Dである。 0.81
The left boundary is an inlet with u = 1, v = 0 and ∂p/∂x = 0; the right boundary is an outlet with ∂u/∂x = 0, ∂v/∂x = 0 and p = 0; and, the cylinder walls have a no-slip condition. 左境界は u = 1, v = 0 と ∂p/∂x = 0 の入江であり、右境界は ∂u/∂x = 0, ∂v/∂x = 0 と p = 0 の出口であり、シリンダー壁は非すべり状態である。 0.85
The numerical solutions obtained for this flow at different Reynolds numbers are well known [34]. この流れに対して異なるレイノルズ数で得られる数値解はよく知られている[34]。 0.72
In our simulations we select Re values that yield solutions in the laminar vortex-shedding regime, and we only include the periodic stage. シミュレーションでは, 層流渦破砕法において解を与えるre値を選択し, 周期段階のみを含む。 0.66
The sets of nodes V 1 employed for each simulation were created using Gmsh placing more nodes around the cylinders walls (see Figure 12a). 各シミュレーションに使用するノードの集合 V1 は、Gmsh を使ってシリンダーの壁の周りにより多くのノードを置く(図 12a 参照)。 0.76
The mean number of nodes in these sets is 7143. これらの集合の平均ノード数は7143である。 0.71
Each simulation contains 100 time-points equispaced by a time-step size dt = 0.1. 各シミュレーションは、時間ステップサイズ dt = 0.1 で等しい100のタイムポイントを含む。 0.69
The training and testing datasets are listed in Table 4. トレーニングとテストデータセットは、テーブル4にリストされている。 0.67
Table 4: Incompressible flow training and testing datasets 表4:非圧縮性フロートレーニングとテストデータセット 0.80
Dataset NS NSMidRe NSLowRe NSMidRe Dataset NS NSMidRe NSLowRe NSMidRe 0.85
Re 500-1000 500-1000 100-500 1000-1500 令 500-1000 500-1000 100-500 1000-1500 0.49
#Simulations Train/Test Training Testing Testing Testing #シミュレーション トレーニング/テストのトレーニングテストテスト 0.81
1000 250 250 250 1000 250 250 250 0.85
B Model details Hyper-parameters choice. Bモデルの詳細 ハイパーパラメータの選択。 0.74
MultiScaleGNN’s hyper-parameters have different values for advection models and fluid dynamics models, Table 5 collects the values we employed. MultiScaleGNNのハイパーパラメータは、アドベクションモデルと流体力学モデルに対して異なる値を持ち、テーブル5は私たちが採用した値を収集します。 0.71
All MLPs use SELU activation functions [35], and, batch normalisation [36]. すべてのmlpはseluアクティベーション関数 [35] とバッチ正規化 [36] を使用する。 0.73
Our results (except results in Tables 1 and 2) were obtained with L = 3, and, M1 = 2, M2 = 2, M3 = 4 for advection; and M1 = 4, M2 = 3, M3 = 2 for fluid dynamics. その結果, l = 3, m1 = 2, m2 = 2, m3 = 4 for advection, m1 = 4, m2 = 3, m3 = 2 for fluid dynamicsが得られた。
訳抜け防止モード: その結果(表 1 と表 2 における結果を除く)は l = 3 で得られた。 そして、m1 = 2, m2 = 2, m3 = 4 for advection ; そして m1 = 4, m2 = 3, m3 = 2 である。
0.82
Multi-scale experiments. マルチスケール実験。 0.77
The number of MP layers at each scale used for obtaining the results in Tables 1 and 2 are listed in the table below. 表1と表2で結果を得るのに使用する各スケールのmp層の数は、以下の表に記載されている。 0.74
Notice that the total number of MP layers at each scale l < L, is 2 × Ml. 各スケール l < L における MP 層の総数は 2 × Ml である。 0.77
Training details. We trained MultiScaleGNN models on a internal cluster using 4 CPUs, 86GB of memory, and a RTX6000 GPU with 24GB. 訓練の詳細。 内部クラスタ上で4CPU,86GBメモリ,24GBのRTX6000 GPUを用いて,MultiScaleGNNモデルをトレーニングした。 0.80
We fed 8 graphs per batch. 1バッチに8つのグラフを与えました。 0.48
First, each training iteration predicted a single time-point, and, every time the training loss decreased below a threshold (0.01 for advection and 0.005 for fluid dynamics) we increased the number of iterative time-steps by one, up to a limit of 10. まず,各トレーニングイテレーションが1つの時間ポイントを予測し,トレーニング損失がしきい値以下(対流0.01,流体力学0.005)に減少するたびに,反復時間ステップの数を1つずつ増加させ,最大10。 0.82
We used the loss function given by equation (8) with λd = 0.25, and, λe = 0.5 for advection and λe = 0 for fluid dynamics. 方程式 (8) で与えられる損失関数を λd = 0.25 で、対流は λe = 0.5 で、流体力学は λe = 0 であった。 0.79
The initial time-point was randomly selected for each prediction, and, we added to the initial field noise following a uniform distribution between -0.01 and 0.01. 予測毎に初期時間点がランダムに選択され, -0.01 と 0.01 の均一分布に従って初期音に付加した。 0.82
After each time-step, the models’ weights were updated using the Adam optimiser with its standard parameters [37]. それぞれの時間ステップの後、モデルの重みは標準パラメーター[37]でadam optimiserを使用して更新された。 0.75
The learning rate was set to 10−4 and multiplied by 0.5 when the training loss did not decrease after five consecutive epochs, also, we applied gradient clipping to keep the Frobenius norm of the weights gradients below or equal to one. 学習速度は10~4に設定され, トレーニング損失が5回連続で減少しなかった場合0.5倍に増加し, また, 重み勾配のフロベニウスノルムを1以下に維持するために勾配クリッピングを適用した。 0.85
14 14 0.85
英語(論文から抽出)日本語訳スコア
Table 5: MultiScaleGNN details 表 5: MultiScaleGNN の詳細 0.93
Hyper-parameters k d2 x, d2 y d3 x, d3 y d4 x, d4 y #Layers in edge encoder #Layers in node encoder #Layers in node decoder #Layers in edge MLPs #Layers in node MLPs #Layers in DownMP MLPs #Layers in UpMP MLPs #Neurons per layer ハイパーパラメータ k d2 x, d2 y d3 x, d3 y d4 x, d4 y #Layers in edge encoder #Layers in node encoder #Layers in node decoder #Layers in edge MLPs #Layers in node MLPs #Layers in DownMP MLPs #Layers in DownMP MLPs #Neurons per layer 0.95
Advection Fluid dynamics アドベクション 流体力学 0.50
4 0.02 0.04 0.08 4 0.02 0.04 0.08 0.66
2 2 2 2 2 2 2 128 2 2 2 2 2 2 2 128 0.85
8 0.15 0.30 0.60 8 0.15 0.30 0.60 0.66
2 2 2 3 2 3 3 128 2 2 2 3 2 3 3 128 0.85
L Table 6: Ml in the multi-scale experiments Advection M1 = 4 L 表 6: ml in the multi-scale experiments advection m1 = 4 0.85
Fluid dynamics L = 1 L = 2 L = 3 L = 4 M1 = 2, M2 = 2, M3 = 2, M4 = 4 M1 = 4, M2 = 2, M3 = 2, M4 = 4 流体力学 L = 1 L = 2 L = 3 L = 4 M1 = 2, M2 = 2, M3 = 2, M4 = 4 M1 = 4, M2 = 2, M3 = 2, M4 = 4 0.82
M1 = 4, M2 = 2, M3 = 4 M1 = 4, M2 = 2, M3 = 4 0.94
M1 = 2, M2 = 2, M3 = 4 M1 = 2, M2 = 2, M3 = 4 0.94
M1 = 4, M2 = 4 M1 = 4 M2 = 4 0.94
M1 = 2, M2 = 4 M1 = 2, M2 = 4 0.94
M1 = 8 C Adaptive coarsening/refinement M1 = 8 C 適応粗大化/縮小 0.75
(a) Original V 1 (a)オリジナルV1 0.77
(b) Coarsened/refined V 1 at time t (b)時間tにおける粗化/精製V1 0.64
(c) MAE Figure 12: (a) Original set of nodes and (b) set of nodes after applying our coarsening/refinement algorithm with c = 0.4 and f = 0.1. (c)前 図12: (a) c = 0.4 と f = 0.1 の粗大化/再分級アルゴリズムを適用した元のノードと (b) ノードの集合。 0.70
(c) MAE on the NSMidRe dataset for MultiScaleGNN without adaptive coarsening/refinement and MultiScaleGNN combined with our coarsening/refinement algorithm. (c)MultiScaleGNN用NSMidReデータセットのMAEと、適応的粗大化/細小化アルゴリズムを組み合わせたMultiScaleGNNについて検討した。 0.62
We implemented an algorithm to locally coarsen and refine the sets of nodes inputted to MultiScaleGNN based on the gradients of the fields at these nodes. 我々は,これらのノードのフィールドの勾配に基づいて,MultiScaleGNNに入力されたノードの集合を局所的に粗くするアルゴリズムを実装した。 0.76
The input to the coarsening/refinement algorithm is a set of nodes V 1, and the output is the same set with some of its nodes removed and some new nodes added to it. 粗粒化/細粒化アルゴリズムへの入力はノードv1のセットであり、出力はいくつかのノードが削除され、新しいノードが加えられた同じセットである。 0.83
The coarsening happens in regions where the amount of nodes is more than enough to capture the spatial variations of the input field, whereas the refinement happens in regions where more resolution is required. 粗さは入力フィールドの空間的変動を捉えるのにノード数が十分以上の領域で起こるが、より分解能が必要な領域では改良が行われる。
訳抜け防止モード: 粗雑化は 地域によって起こります ノードの量は入力フィールドの空間的変動を捉えるのに十分である。 一方、より解像度が必要な地域では改良が行なわれる。
0.76
The algorithm begins by connecting each node to its k-closest nodes, we denote the resulting set of edges by Ec/f . アルゴリズムは、各ノードをk閉ノードに接続することから始まり、結果のエッジ集合をec/fで表す。 0.77
Then, ∆u is computed at each node. すると、各ノードでsuが計算される。 0.64
We define ∆u as を「u」と定義する。 0.33
∆uk := ||u(t, xrk ) − u(t, xsk )||2 ∀k ∈ Ec/f , ∆ui := uk := ||u(t, xrk ) − u(t, xsk )||2 >k ∈ Ec/f , >ui := 0.76
∀i ∈ V 1, は V 1 である。 0.63
∆uk (cid:88) ウーク (cid:88) 0.56
(15) (16) and, it summarises the mean magnitude of the gradients of field u at each node. (15) (16) そして、各ノードにおけるフィールドuの勾配の平均等級を要約する。 0.74
k:rk=i 15 k:rk=i 15 0.82
英語(論文から抽出)日本語訳スコア
c , which contains the nodes with a value of ∆u below the c|V 1|th-lowest value, The set of nodes V 1 is applied a coarsening algorithm; whereas the set of nodes V 1 f , which contains the nodes with a value above the f|V 1|th-highest, is applied a refinement algorithm. c は c|v 1|th-lowest 以下の値のノードを含むが、ノード v 1 のセットは粗いアルゴリズムを適用し、f|v 1|th-high 以上の値のノードを含むノード v 1 f のセットは改良アルゴリズムを適用する。 0.70
Values c and f can be chosen depending on the performance requirements. 値 c と f は、パフォーマンス要求に応じて選択できる。 0.77
The coarsening is based on Guillard’s coarsening [38], and, it consists on removing the k-closest nodes to node i ∈ V 1 c provided that node i has not been removed yet. 粗化は Guillard の粗化[38] に基づいており、ノード i がまだ削除されていないノード i ∈ V 1 c に k-閉ノードを除去することで構成される。 0.81
The refinement algorithm we implemented can be interpreted as an inverse of Guillard’s coarsening: for each node i ∈ V 1 f , k triangles with node i and its k-closest nodes at their vertices are created, then, new nodes are added at the centroids of those triangles. 我々が実装した精製アルゴリズムは、ギラードの粗大化の逆として解釈できる:各ノード i ∈ V 1 f に対して、ノード i とその頂点における k-閉ノードを持つ k 個の三角形が生成され、それらの三角形のセントロイドに新しいノードが追加される。 0.75
Figure 12a shows an example of a set of nodes provided to our coarsening/refinement algorithm, and Figure 12b shows the resulting set of nodes for c = 0.4 and f = 0.1. 図12aは粗化/縮小アルゴリズムに与えられたノードの集合の例を示し、図12bは c = 0.4 と f = 0.1 のノードの集合を示している。 0.78
Notice that, in line with Guillard’s coarsening, the nodes on the boundaries of the domain are not considered by our algorithm. ただし、Guillardの粗大化に合わせて、ドメインの境界上のノードは、我々のアルゴリズムでは考慮されていない。 0.75
We trained MultiScaleGNN on the NS dataset with sets of nodes obtained for c between 0.3 and 0.5, and f between 0.05 and 0.15. NSデータセット上でMultiScaleGNNをトレーニングし、cは0.3から0.5、fは0.05から0.15のノード集合を得た。 0.68
Then, during inference time, the sets of nodes V 1 fed to MultiScaleGNN are coarsened/refined before every time-step. そして、推測時間中に、MultiScaleGNNに供給されたノードV1の集合を、時間ステップ毎に粗め、精製する。 0.60
Figure 12c compares the MAE on the NSMidRe dataset for MultiScaleGNN without adaptive coarsening/refinement and MultiScaleGNN combined with our coarsening/refinement algorithm. 図12cは、適応的粗大化/精細化のないMultiScaleGNNのNSMidReデータセットのMAEと、我々の粗大化/精細化アルゴリズムを組み合わせたMultiScaleGNNを比較した。 0.52
For a fair comparison, adaptive-MultiScaleG NN predictions are interpolated to the primitive set of nodes, and the MAEs for both models are computed in the same set of nodes. 公平な比較のために、アダプティブ・マルチスケールGNN予測はプリミティブなノードセットに補間され、両方のモデルのMAEは同じノードセットで計算される。 0.81
From this figure, it is clear, that having the ability to dynamically adapt the resolution can help to further improve the long-term accuracy. この図から、解像度を動的に適応できる能力を持つことは、長期的な精度をさらに向上させるのに役立つことは明らかである。 0.66
16 16 0.85
                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。