論文の概要: Mini-data-driven Deep Arbitrary Polynomial Chaos Expansion for
Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2107.10428v1
- Date: Thu, 22 Jul 2021 02:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 23:17:16.710491
- Title: Mini-data-driven Deep Arbitrary Polynomial Chaos Expansion for
Uncertainty Quantification
- Title(参考訳): 不確実性定量化のためのミニデータ駆動ディープ任意多項式カオス展開
- Authors: Xiaohu Zheng, Jun Zhang, Ning Wang, Guijian Tang, Wen Yao
- Abstract要約: 本稿では,サロゲートモデルの精度とトレーニングデータコストのバランスを改善するために,ディープ・任意のカオス展開(Deep aPCE)手法を提案する。
4つの数値例と実際の工学的問題を用いて,Deep aPCE法の有効性を検証する。
- 参考スコア(独自算出の注目度): 9.586968666707529
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The surrogate model-based uncertainty quantification method has drawn a lot
of attention in recent years. Both the polynomial chaos expansion (PCE) and the
deep learning (DL) are powerful methods for building a surrogate model.
However, the PCE needs to increase the expansion order to improve the accuracy
of the surrogate model, which causes more labeled data to solve the expansion
coefficients, and the DL also needs a lot of labeled data to train the neural
network model. This paper proposes a deep arbitrary polynomial chaos expansion
(Deep aPCE) method to improve the balance between surrogate model accuracy and
training data cost. On the one hand, the multilayer perceptron (MLP) model is
used to solve the adaptive expansion coefficients of arbitrary polynomial chaos
expansion, which can improve the Deep aPCE model accuracy with lower expansion
order. On the other hand, the adaptive arbitrary polynomial chaos expansion's
properties are used to construct the MLP training cost function based on only a
small amount of labeled data and a large scale of non-labeled data, which can
significantly reduce the training data cost. Four numerical examples and an
actual engineering problem are used to verify the effectiveness of the Deep
aPCE method.
- Abstract(参考訳): 近年,代理モデルに基づく不確実性定量化手法が注目されている。
多項式カオス展開(PCE)と深層学習(DL)はどちらも代理モデルを構築するための強力な方法である。
しかし、pceは、拡張係数を解決するためにより多くのラベル付きデータを引き起こすサーロゲートモデルの精度を向上させるために拡張順序を増加させる必要があり、dlはまた、ニューラルネットワークモデルをトレーニングするために多くのラベル付きデータを必要とする。
本稿では,代理モデル精度とトレーニングデータコストのバランスを改善するために,深い任意多項式カオス展開(deep apce)法を提案する。
一方、多層パーセプトロン(MLP)モデルを用いて任意の多項式カオス展開の適応膨張係数を解くことにより、より低い展開順序でDeep aPCEモデルの精度を向上させることができる。
一方、適応的な任意の多項式カオス展開特性を用いて、少量のラベル付きデータと大規模なラベルなしデータのみに基づいて、MPPトレーニングコスト関数を構築することにより、トレーニングデータコストを大幅に削減することができる。
4つの数値例と実際の工学的問題を用いて,Deep aPCE法の有効性を検証する。
関連論文リスト
- REMEDI: Corrective Transformations for Improved Neural Entropy
Estimation [0.8033587425155695]
我々は微分エントロピーの効率的かつ正確な推定のために$textttREMEDI$を紹介した。
提案手法は,幅広い推定課題にまたがる改善を実証する。
自然に情報理論による教師あり学習モデルに拡張することができる。
論文 参考訳(メタデータ) (2024-02-08T14:47:37Z) - End-to-End Reinforcement Learning of Koopman Models for Economic
Nonlinear Model Predictive Control [50.0791489606211]
非線形モデル予測制御((e)NMPC)は、すべての状態空間領域において十分正確なシステムモデルを必要とする。
メカニスティックモデルのためのデータ駆動サロゲートモデルは、(e)NMPCの計算負担を軽減するために使用できる。
In this method for end-to-end reinforcement learning of dynamic surrogate model for optimal performance in (e)NMPC applications。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Quantized Adaptive Subgradient Algorithms and Their Applications [39.103587572626026]
本稿では、分散トレーニングのための量子化された複合ミラー降下適応次数 (QCMD adagrad) と量子化された正規化された2次平均適応次数 (QRDA adagrad) を提案する。
量子化勾配に基づく適応学習率行列を構築し、通信コスト、精度、モデル間隔のバランスをとる。
論文 参考訳(メタデータ) (2022-08-11T04:04:03Z) - Sparse Bayesian Learning for Complex-Valued Rational Approximations [0.03392423750246091]
サロゲートモデルは、エンジニアリングタスクの計算負担を軽減するために使用される。
これらのモデルは入力パラメータに強い非線形依存を示す。
合理的近似にスパース学習アプローチを適用する。
論文 参考訳(メタデータ) (2022-06-06T12:06:13Z) - Parameterized Consistency Learning-based Deep Polynomial Chaos Neural
Network Method for Reliability Analysis in Aerospace Engineering [3.541245871465521]
ポリノミアルカオス展開(PCE)は航空宇宙工学における強力な代理モデル信頼性解析手法である。
そこで本研究では,パラメータ化された一貫性学習に基づく深層カオスニューラルネットワーク(Deep PCNN)手法を提案する。
Deep PCNN法は、高次PCEモデルを構築する際のトレーニングデータコストを大幅に削減することができる。
論文 参考訳(メタデータ) (2022-03-29T15:15:12Z) - Deep Probabilistic Graphical Modeling [2.2691593216516863]
この論文は、DPGM(Deep Probabilistic Graphic Model)を発展させる。
DPGMは、ディープラーニング(DL)を活用してPGMをより柔軟にする。
ニューラルネットワークを用いた指数関数型ファミリーPCAを拡張して予測性能を向上するモデルクラスを開発した。
論文 参考訳(メタデータ) (2021-04-25T03:48:02Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。