論文の概要: Neural Network with Local Converging Input (NNLCI) for Supersonic Flow
Problems with Unstructured Grids
- arxiv url: http://arxiv.org/abs/2310.15299v1
- Date: Mon, 23 Oct 2023 19:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 22:02:55.190044
- Title: Neural Network with Local Converging Input (NNLCI) for Supersonic Flow
Problems with Unstructured Grids
- Title(参考訳): 非構造格子を持つ超音速流れ問題に対する局所収束入力(nnlci)を用いたニューラルネットワーク
- Authors: Weiming Ding, Haoxiang Huang, Tzu Jung Lee, Yingjie Liu, Vigor Yang
- Abstract要約: 非構造データを用いた高忠実度予測のための局所収束入力(NNLCI)を用いたニューラルネットワークを開発した。
また, NNLCI法を用いて, バンプを有するチャネル内の超音速流の可視化を行った。
- 参考スコア(独自算出の注目度): 0.9152133607343995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, surrogate models based on deep neural networks (DNN) have
been widely used to solve partial differential equations, which were
traditionally handled by means of numerical simulations. This kind of surrogate
models, however, focuses on global interpolation of the training dataset, and
thus requires a large network structure. The process is both time consuming and
computationally costly, thereby restricting their use for high-fidelity
prediction of complex physical problems. In the present study, we develop a
neural network with local converging input (NNLCI) for high-fidelity prediction
using unstructured data. The framework utilizes the local domain of dependence
with converging coarse solutions as input, which greatly reduces computational
resource and training time. As a validation case, the NNLCI method is applied
to study inviscid supersonic flows in channels with bumps. Different bump
geometries and locations are considered to benchmark the effectiveness and
versability of the proposed approach. Detailed flow structures, including
shock-wave interactions, are examined systematically.
- Abstract(参考訳): 近年では、ディープニューラルネットワーク(DNN)に基づく代理モデルを用いて偏微分方程式の解法が広く行われている。
しかし、この種の代理モデルは、トレーニングデータセットのグローバルな補間にフォーカスしており、そのため大きなネットワーク構造を必要とする。
このプロセスは時間と計算コストの両方を消費し、複雑な物理問題の高忠実度予測に使用することを制限している。
本研究では,非構造データを用いた高忠実度予測のための局所収束入力(NNLCI)を用いたニューラルネットワークを開発した。
このフレームワークは局所的な依存領域を利用し、粗い解を入力として収束させることで、計算資源とトレーニング時間を大幅に削減する。
また, NNLCI法を用いて, バンプを有するチャネル内の超音速流の可視化を行った。
バンプジオメトリと位置の違いは,提案手法の有効性と可逆性を評価するために考慮される。
衝撃波相互作用を含む詳細な流れ構造を系統的に検討した。
関連論文リスト
- Positional Encoder Graph Quantile Neural Networks for Geographic Data [4.277516034244117]
我々は,PE-GNN,Quantile Neural Networks,および再校正技術を完全非パラメトリックフレームワークに統合する新しい手法である,位置グラフ量子ニューラルネットワーク(PE-GQNN)を紹介する。
ベンチマークデータセットの実験では、PE-GQNNは予測精度と不確実性の定量化の両方で既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-27T16:02:12Z) - Residual resampling-based physics-informed neural network for neutron diffusion equations [7.105073499157097]
中性子拡散方程式は原子炉の解析において重要な役割を果たす。
従来のPINNアプローチでは、完全に接続されたネットワーク(FCN)アーキテクチャを利用することが多い。
R2-PINNは、現在の方法に固有の制限を効果的に克服し、中性子拡散方程式のより正確で堅牢な解を提供する。
論文 参考訳(メタデータ) (2024-06-23T13:49:31Z) - Structured Neural Networks for Density Estimation and Causal Inference [15.63518195860946]
ニューラルネットワークに構造を注入することで、入力のサブセットに関する不変性を満たす学習機能を実現することができる。
本稿では,ニューラルネットワークのマスキング経路を通じて構造を注入する構造ニューラルネットワーク(StrNN)を提案する。
論文 参考訳(メタデータ) (2023-11-03T20:15:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Physics-informed neural networks for gravity currents reconstruction
from limited data [0.0]
本研究では, 物理インフォームドニューラルネットワーク(PINN)を用いた非定常重力電流の3次元再構成について検討した。
PINNコンテキストでは、目的関数がネットワーク予測と観測データとのミスマッチをペナルティ化するニューラルネットワークをトレーニングすることにより、フローフィールドを再構築する。
論文 参考訳(メタデータ) (2022-11-03T11:27:29Z) - Go Beyond Multiple Instance Neural Networks: Deep-learning Models based
on Local Pattern Aggregation [0.0]
畳み込みニューラルネットワーク(CNN)は、臨床心電図(ECG)と話者非依存音声の処理においてブレークスルーをもたらした。
本稿では,局所的なパターン集約に基づくディープラーニングモデルを提案する。
LPANetと呼ばれる新しいネットワーク構造には、トリミングと集約操作が組み込まれている。
論文 参考訳(メタデータ) (2022-05-28T13:18:18Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。