論文の概要: AMS-Net: Adaptive Multiscale Sparse Neural Network with Interpretable
Basis Expansion for Multiphase Flow Problems
- arxiv url: http://arxiv.org/abs/2207.11735v1
- Date: Sun, 24 Jul 2022 13:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:11:51.332167
- Title: AMS-Net: Adaptive Multiscale Sparse Neural Network with Interpretable
Basis Expansion for Multiphase Flow Problems
- Title(参考訳): AMS-Net:多相流問題に対する解釈可能な基底展開を用いた適応型マルチスケールスパースニューラルネットワーク
- Authors: Yating Wang, Wing Tat Leung, Guang Lin
- Abstract要約: 本研究では、物理過程の学習に応用可能な適応スパース学習アルゴリズムを提案し、大きなスナップショット空間を与えられた解のスパース表現を得る。
基本関数の情報は損失関数に組み込まれており、複数の時間ステップにおけるダウンスケール縮小次数解と参照解との差を最小限に抑える。
複雑なアプリケーションにおける提案手法の有効性と解釈性を示すため, 2相多相流問題に対してより数値的な実験を行った。
- 参考スコア(独自算出の注目度): 8.991619150027267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose an adaptive sparse learning algorithm that can be
applied to learn the physical processes and obtain a sparse representation of
the solution given a large snapshot space. Assume that there is a rich class of
precomputed basis functions that can be used to approximate the quantity of
interest. We then design a neural network architecture to learn the
coefficients of solutions in the spaces which are spanned by these basis
functions. The information of the basis functions are incorporated in the loss
function, which minimizes the differences between the downscaled reduced order
solutions and reference solutions at multiple time steps. The network contains
multiple submodules and the solutions at different time steps can be learned
simultaneously. We propose some strategies in the learning framework to
identify important degrees of freedom. To find a sparse solution
representation, a soft thresholding operator is applied to enforce the sparsity
of the output coefficient vectors of the neural network. To avoid
over-simplification and enrich the approximation space, some degrees of freedom
can be added back to the system through a greedy algorithm. In both scenarios,
that is, removing and adding degrees of freedom, the corresponding network
connections are pruned or reactivated guided by the magnitude of the solution
coefficients obtained from the network outputs. The proposed adaptive learning
process is applied to some toy case examples to demonstrate that it can achieve
a good basis selection and accurate approximation. More numerical tests are
performed on two-phase multiscale flow problems to show the capability and
interpretability of the proposed method on complicated applications.
- Abstract(参考訳): 本研究では,物理過程を学習し,大きなスナップショット空間を与えられた解のスパース表現を得るために適用可能な適応スパース学習アルゴリズムを提案する。
興味の量を近似するために使用できる事前計算された基底関数の豊富なクラスが存在すると仮定する。
次に、これらの基底関数にまたがる空間における解の係数を学ぶために、ニューラルネットワークアーキテクチャを設計する。
基本関数の情報は損失関数に組み込まれており、複数の時間ステップにおけるダウンスケール縮小次数解と参照解との差を最小限に抑える。
ネットワークには複数のサブモジュールが含まれており、異なる時間ステップの解を同時に学習することができる。
我々は,学習の枠組みにおいて,重要な自由度を特定するための戦略を提案する。
疎解表現を求めるために、ソフトしきい値演算子を適用して、ニューラルネットワークの出力係数ベクトルのスパーシティを強制する。
近似空間の単純化と強化を避けるため、グレディアルゴリズムによってある程度の自由度をシステムに追加することができる。
どちらのシナリオ、すなわち自由度を取り除いて加える場合、対応するネットワーク接続は、ネットワーク出力から得られる解係数の大きさによってprunまたは再活性化される。
提案した適応学習プロセスは, 適切な基礎選択と正確な近似を達成できることを示すために, いくつかの玩具事例に適用される。
複雑な応用における提案手法の能力と解釈性を示すため,二相多相流問題に対するより数値的な実験を行った。
関連論文リスト
- What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Solving the Discretised Multiphase Flow Equations with Interface
Capturing on Structured Grids Using Machine Learning Libraries [0.6299766708197884]
本稿では,機械学習ライブラリのツールと手法を用いて,離散化した多相流方程式を解く。
はじめて、(訓練されていない)畳み込みニューラルネットワークに基づくアプローチを用いて、多相流の有限要素判別を解くことができる。
論文 参考訳(メタデータ) (2024-01-12T18:42:42Z) - ReLU Neural Networks with Linear Layers are Biased Towards Single- and Multi-Index Models [9.96121040675476]
この原稿は、2層以上の深さのニューラルネットワークによって学習された関数の性質が予測にどのように影響するかを考察している。
我々のフレームワークは、すべて同じキャパシティを持つが表現コストが異なる、様々な深さのネットワーク群を考慮に入れている。
論文 参考訳(メタデータ) (2023-05-24T22:10:12Z) - A Deep Gradient Correction Method for Iteratively Solving Linear Systems [5.744903762364991]
本稿では, 方程式の大, 疎, 対称, 正定値線形系の解を近似する新しい手法を提案する。
我々のアルゴリズムは、少数の反復で与えられた許容度に残留する線形系を減少させることができる。
論文 参考訳(メタデータ) (2022-05-22T06:40:38Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Properties of the geometry of solutions and capacity of multi-layer neural networks with Rectified Linear Units activations [2.3018169548556977]
本稿では,2層ニューラルネットワークにおける線形整流ユニットが解空間の容量および幾何学的景観に与える影響について検討する。
予想外のことに、隠れた層内のニューロン数が増加するにつれて、ネットワークの容量は有限であることがわかった。
おそらくもっと重要なことは、大きな偏差のアプローチによって、解空間の幾何学的景観が特異な構造を持つことを見つけることができるということである。
論文 参考訳(メタデータ) (2019-07-17T15:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。