論文の概要: Prediction of wall-bounded turbulence from wall quantities using
convolutional neural networks
- arxiv url: http://arxiv.org/abs/1912.12969v1
- Date: Mon, 30 Dec 2019 15:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:59:54.701087
- Title: Prediction of wall-bounded turbulence from wall quantities using
convolutional neural networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた壁面量による壁面乱流の予測
- Authors: L. Guastoni, M. P. Encinar, P. Schlatter, H. Azizpour, R. Vinuesa
- Abstract要約: 完全畳み込みニューラルネットモデルを用いて,壁面正規位置の流速場を予測する。
様々なネットワークが3つの内部スケールの場所で予測するために訓練されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fully-convolutional neural-network model is used to predict the streamwise
velocity fields at several wall-normal locations by taking as input the
streamwise and spanwise wall-shear-stress planes in a turbulent open channel
flow. The training data are generated by performing a direct numerical
simulation (DNS) at a friction Reynolds number of $Re_{\tau}=180$. Various
networks are trained for predictions at three inner-scaled locations ($y^+ =
15,~30,~50$) and for different time steps between input samples $\Delta
t^{+}_{s}$. The inherent non-linearity of the neural-network model enables a
better prediction capability than linear methods, with a lower error in both
the instantaneous flow fields and turbulent statistics. Using a dataset with
higher $\Delta t^+_{s}$ improves the generalization at all the considered
wall-normal locations, as long as the network capacity is sufficient to
generalize over the dataset. The use of a multiple-output network, with
parallel dedicated branches for two wall-normal locations, does not provide any
improvement over two separated single-output networks, other than a moderate
saving in training time. Training time can be effectively reduced, by a factor
of 4, via a transfer learning method that initializes the network parameters
using the optimized parameters of a previously-trained network.
- Abstract(参考訳): 完全畳み込みニューラルネットワークモデルを用いて,乱流開水路流中の流れ面とスパン方向壁面を入力として,複数の壁面正規位置における流れ方向の速度場を予測する。
トレーニングデータは、Reynolds数$Re_{\tau}=180$の摩擦で直接数値シミュレーション(DNS)を実行することで生成される。
様々なネットワークは、3つのインナースケールの場所(y^+ = 15~30,~50$)での予測と、入力サンプル間で異なる時間ステップ($\delta t^{+}_{s}$)で訓練される。
ニューラルネットワークモデルの固有非線形性は線形法よりも優れた予測能力を実現し、瞬時流れ場と乱流統計量の両方において誤差が低い。
より高額な$\Delta t^+_{s}$のデータセットを使用することで、ネットワーク容量がデータセット上での一般化に十分である限り、すべての壁正規な場所における一般化が改善される。
2つのウォールノーマルロケーションに並列に専用ブランチを持つマルチアウトプットネットワークは、トレーニング時間を適度に節約する以外、2つの分離したシングルアウトプットネットワークに対して改善を提供していない。
事前学習されたネットワークの最適化パラメータを用いてネットワークパラメータを初期化する転送学習手法により、トレーニング時間を4倍に短縮することができる。
関連論文リスト
- Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - Predicting the wall-shear stress and wall pressure through convolutional
neural networks [1.95992742032823]
本研究では,畳み込み型ニューラルネットワークが乱流開水路内の壁量を予測する能力を評価することを目的とした。
FCNの予測は、提案したR-Netアーキテクチャの予測と比較される。
R-Netはまた、速度変動場を$y+ = 50$で予測できる。
論文 参考訳(メタデータ) (2023-03-01T18:03:42Z) - Predicting the near-wall region of turbulence through convolutional
neural networks [0.0]
乱流開水路流れにおける近接壁挙動を予測するためのニューラルネットワークに基づく手法について検討した。
完全畳み込みネットワーク(FCN)は,2次元速度変動場を$y+_rmターゲット$で予測するために訓練される。
FCNは流れの対数領域の自己相似性を生かし、速度変動場を$y+ = 50$で予測することができる。
論文 参考訳(メタデータ) (2021-07-15T13:58:26Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Convolutional-network models to predict wall-bounded turbulence from
wall quantities [0.0]
乱流開水路流れにおける壁面異常位置の2次元速度変動場を予測するために2つのモデルを訓練した。
最初のモデルは、揺らぎを直接予測する完全畳み込みニューラルネットワーク(FCN)である。
後者は正規直交基底関数の線形結合を用いて流れ場を再構成する。
論文 参考訳(メタデータ) (2020-06-22T17:57:40Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。