論文の概要: On Active Learning for Gaussian Process-based Global Sensitivity
Analysis
- arxiv url: http://arxiv.org/abs/2308.14220v1
- Date: Sun, 27 Aug 2023 22:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:03:55.769592
- Title: On Active Learning for Gaussian Process-based Global Sensitivity
Analysis
- Title(参考訳): ガウス過程に基づくグローバル感性分析のためのアクティブラーニングについて
- Authors: Mohit Chauhan, Mariel Ojeda-Tuz, Ryan Catarelli, Kurtis Gurley,
Dimitrios Tsapetis, Michael D. Shields
- Abstract要約: 本稿では,ソボル指数をガウス過程シュロゲートから推定される分散の比として定義することにより,ソボル指数の能動的学習がユニークな課題をもたらすことを示す。
本稿では,ガウス過程の主な効果を解決することに焦点を当てた,アクティブラーニングのための新しい戦略を提案する。
大規模境界層風洞実験における適応型実験設計の実践例として,本手法を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the application of active learning strategies to
adaptively learn Sobol indices for global sensitivity analysis. We demonstrate
that active learning for Sobol indices poses unique challenges due to the
definition of the Sobol index as a ratio of variances estimated from Gaussian
process surrogates. Consequently, learning strategies must either focus on
convergence in the numerator or the denominator of this ratio. However, rapid
convergence in either one does not guarantee convergence in the Sobol index. We
propose a novel strategy for active learning that focuses on resolving the main
effects of the Gaussian process (associated with the numerator of the Sobol
index) and compare this with existing strategies based on convergence in the
total variance (the denominator of the Sobol index). The new strategy,
implemented through a new learning function termed the MUSIC (minimize
uncertainty in Sobol index convergence), generally converges in Sobol index
error more rapidly than the existing strategies based on the Expected
Improvement for Global Fit (EIGF) and the Variance Improvement for Global Fit
(VIGF). Both strategies are compared with simple sequential random sampling and
the MUSIC learning function generally converges most rapidly for
low-dimensional problems. However, for high-dimensional problems, the
performance is comparable to random sampling. The new learning strategy is
demonstrated for a practical case of adaptive experimental design for
large-scale Boundary Layer Wind Tunnel experiments.
- Abstract(参考訳): 本稿では,グローバル感度分析のためのsobol指標を適応的に学習するためのアクティブラーニング戦略の応用について検討する。
ガウス過程から推定される分散の比率として, sobol指数を定義することで, sobolインデックスのアクティブラーニングがユニークな課題となることを示す。
したがって、学習戦略は、この比率の分母または分母の収束に焦点を合わせなければならない。
しかし、どちらの場合も急速な収束はsobol指数の収束を保証しない。
本稿では,ガウス過程(ソボル指数の数値化と関連する)の主作用を解明することに焦点を当てたアクティブラーニングの新たな戦略を提案し,これを全分散の収束(ソボル指数の分母)に基づく既存戦略と比較する。
MUSIC(Sobol index convergence における不確実性を最小化する)と呼ばれる新たな学習機能によって実現された新たな戦略は、一般的に、期待されるグローバルフィットの改善(EIGF)とグローバルフィットの分散改善(VIGF)に基づいて、既存の戦略よりも高速にソボインデックスエラーに収束する。
どちらの戦略も単純な逐次ランダムサンプリングと比較され、音楽学習関数は一般に低次元問題に対して最も急速に収束する。
しかし、高次元問題の場合、その性能はランダムサンプリングに匹敵する。
大規模境界層風洞実験のための適応型実験設計を実践例として,新しい学習戦略を実証した。
関連論文リスト
- On the Communication Complexity of Decentralized Bilevel Optimization [40.45379954138305]
本稿では,更新戦略の同時および交互化に基づく2つの新しい分散二段階勾配勾配アルゴリズムを提案する。
我々のアルゴリズムは既存の手法よりも高速な収束率と通信コストを抑えることができる。
このような理論的な結果は、不均一な環境での軽微な仮定で達成されたのはこれが初めてである。
論文 参考訳(メタデータ) (2023-11-19T14:56:26Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Rethinking Gauss-Newton for learning over-parameterized models [14.780386419851956]
まず, 条件改善によるGDよりも高速な収束率を示す連続時間限界において, GNのグローバル収束結果を確立する。
次に,GNの手法の暗黙的偏見を調べるために,合成回帰タスクに関する実証的研究を行った。
論文 参考訳(メタデータ) (2023-02-06T16:18:48Z) - Pairwise Learning via Stagewise Training in Proximal Setting [0.0]
非平滑凸対損失関数の収束保証と、適応的なサンプルサイズとペアワイズ学習のための重要サンプリング手法を組み合わせる。
それぞれに逆のインスタンスをサンプリングすると勾配の分散が減少し、収束が加速することを示した。
論文 参考訳(メタデータ) (2022-08-08T11:51:01Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Linearly Converging Error Compensated SGD [11.436753102510647]
本稿では、任意の圧縮と遅延更新を伴う分散SGDの変種を統一的に解析する。
我々のフレームワークは、量子化されたSGD、ErrorCompensated SGD、SGDの様々な変種をカバーするのに十分である。
我々は、分散還元や任意のサンプリングと誤りフィードバックと量子化を組み合わせたSGDの新しい変種を開発する。
論文 参考訳(メタデータ) (2020-10-23T10:46:31Z) - Towards Understanding Label Smoothing [36.54164997035046]
ラベルスムーズな正規化(LSR)は、トレーニングアルゴリズムによるディープニューラルネットワークにおいて大きな成功を収めている。
適切なLSRが分散を減少させることで収束を加速することを示す。
本稿では,TSLA(Two-Stage LAbel smoothing algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-20T20:36:17Z) - Convergence of Meta-Learning with Task-Specific Adaptation over Partial
Parameters [152.03852111442114]
モデルに依存しないメタラーニング(MAML)は非常に成功したアルゴリズムメタラーニングの実践であるが、高い計算複雑性を持つ。
本稿では,その複雑さがANILの全体的な収束性能に大きく影響することを示す。
論文 参考訳(メタデータ) (2020-06-16T19:57:48Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。