論文の概要: Mini-data-driven Deep Arbitrary Polynomial Chaos Expansion for
Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2107.10428v1
- Date: Thu, 22 Jul 2021 02:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 23:17:16.710491
- Title: Mini-data-driven Deep Arbitrary Polynomial Chaos Expansion for
Uncertainty Quantification
- Title(参考訳): 不確実性定量化のためのミニデータ駆動ディープ任意多項式カオス展開
- Authors: Xiaohu Zheng, Jun Zhang, Ning Wang, Guijian Tang, Wen Yao
- Abstract要約: 本稿では,サロゲートモデルの精度とトレーニングデータコストのバランスを改善するために,ディープ・任意のカオス展開(Deep aPCE)手法を提案する。
4つの数値例と実際の工学的問題を用いて,Deep aPCE法の有効性を検証する。
- 参考スコア(独自算出の注目度): 9.586968666707529
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The surrogate model-based uncertainty quantification method has drawn a lot
of attention in recent years. Both the polynomial chaos expansion (PCE) and the
deep learning (DL) are powerful methods for building a surrogate model.
However, the PCE needs to increase the expansion order to improve the accuracy
of the surrogate model, which causes more labeled data to solve the expansion
coefficients, and the DL also needs a lot of labeled data to train the neural
network model. This paper proposes a deep arbitrary polynomial chaos expansion
(Deep aPCE) method to improve the balance between surrogate model accuracy and
training data cost. On the one hand, the multilayer perceptron (MLP) model is
used to solve the adaptive expansion coefficients of arbitrary polynomial chaos
expansion, which can improve the Deep aPCE model accuracy with lower expansion
order. On the other hand, the adaptive arbitrary polynomial chaos expansion's
properties are used to construct the MLP training cost function based on only a
small amount of labeled data and a large scale of non-labeled data, which can
significantly reduce the training data cost. Four numerical examples and an
actual engineering problem are used to verify the effectiveness of the Deep
aPCE method.
- Abstract(参考訳): 近年,代理モデルに基づく不確実性定量化手法が注目されている。
多項式カオス展開(PCE)と深層学習(DL)はどちらも代理モデルを構築するための強力な方法である。
しかし、pceは、拡張係数を解決するためにより多くのラベル付きデータを引き起こすサーロゲートモデルの精度を向上させるために拡張順序を増加させる必要があり、dlはまた、ニューラルネットワークモデルをトレーニングするために多くのラベル付きデータを必要とする。
本稿では,代理モデル精度とトレーニングデータコストのバランスを改善するために,深い任意多項式カオス展開(deep apce)法を提案する。
一方、多層パーセプトロン(MLP)モデルを用いて任意の多項式カオス展開の適応膨張係数を解くことにより、より低い展開順序でDeep aPCEモデルの精度を向上させることができる。
一方、適応的な任意の多項式カオス展開特性を用いて、少量のラベル付きデータと大規模なラベルなしデータのみに基づいて、MPPトレーニングコスト関数を構築することにより、トレーニングデータコストを大幅に削減することができる。
4つの数値例と実際の工学的問題を用いて,Deep aPCE法の有効性を検証する。
関連論文リスト
- Pushing the Limits of Large Language Model Quantization via the Linearity Theorem [71.3332971315821]
本稿では,階層的$ell$再構成誤差と量子化によるモデルパープレキシティ増加との直接的な関係を確立する「線形定理」を提案する。
この知見は,(1)アダマール回転とHIGGSと呼ばれるMSE最適格子を用いた単純なデータフリーLCM量子化法,(2)非一様層ごとの量子化レベルを求める問題に対する最適解の2つの新しい応用を可能にする。
論文 参考訳(メタデータ) (2024-11-26T15:35:44Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Adding Conditional Control to Diffusion Models with Reinforcement Learning [59.295203871547336]
拡散モデルは、生成されたサンプルの特性を正確に制御できる強力な生成モデルである。
本研究では、オフラインデータセットを活用した強化学習(RL)に基づく新しい制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-17T22:00:26Z) - Federated Bayesian Deep Learning: The Application of Statistical Aggregation Methods to Bayesian Models [0.9940108090221528]
集約戦略は、分散決定論的モデルの重みとバイアスをプールまたはフューズするために開発されている。
決定論的モデルに対するFLスキームに付随するアグリゲーション手法の簡単な適用は不可能か、あるいは準最適性能をもたらすかを示す。
論文 参考訳(メタデータ) (2024-03-22T15:02:24Z) - REMEDI: Corrective Transformations for Improved Neural Entropy Estimation [0.7488108981865708]
我々は微分エントロピーの効率的かつ正確な推定のために$textttREMEDI$を紹介した。
提案手法は,幅広い推定課題にまたがる改善を実証する。
自然に情報理論による教師あり学習モデルに拡張することができる。
論文 参考訳(メタデータ) (2024-02-08T14:47:37Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Quantized Adaptive Subgradient Algorithms and Their Applications [39.103587572626026]
本稿では、分散トレーニングのための量子化された複合ミラー降下適応次数 (QCMD adagrad) と量子化された正規化された2次平均適応次数 (QRDA adagrad) を提案する。
量子化勾配に基づく適応学習率行列を構築し、通信コスト、精度、モデル間隔のバランスをとる。
論文 参考訳(メタデータ) (2022-08-11T04:04:03Z) - Parameterized Consistency Learning-based Deep Polynomial Chaos Neural
Network Method for Reliability Analysis in Aerospace Engineering [3.541245871465521]
ポリノミアルカオス展開(PCE)は航空宇宙工学における強力な代理モデル信頼性解析手法である。
そこで本研究では,パラメータ化された一貫性学習に基づく深層カオスニューラルネットワーク(Deep PCNN)手法を提案する。
Deep PCNN法は、高次PCEモデルを構築する際のトレーニングデータコストを大幅に削減することができる。
論文 参考訳(メタデータ) (2022-03-29T15:15:12Z) - Deep Probabilistic Graphical Modeling [2.2691593216516863]
この論文は、DPGM(Deep Probabilistic Graphic Model)を発展させる。
DPGMは、ディープラーニング(DL)を活用してPGMをより柔軟にする。
ニューラルネットワークを用いた指数関数型ファミリーPCAを拡張して予測性能を向上するモデルクラスを開発した。
論文 参考訳(メタデータ) (2021-04-25T03:48:02Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。