論文の概要: Multifidelity Ensemble Kalman Filtering using surrogate models defined
by Physics-Informed Autoencoders
- arxiv url: http://arxiv.org/abs/2102.13025v1
- Date: Thu, 25 Feb 2021 17:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:40:07.983312
- Title: Multifidelity Ensemble Kalman Filtering using surrogate models defined
by Physics-Informed Autoencoders
- Title(参考訳): 物理情報オートエンコーダによって定義されるサーロゲートモデルを用いたマルチファイデリティエンサンブルカルマンフィルタ
- Authors: Andrey A Popov, Adrian Sandu
- Abstract要約: 我々は、モデル間の非線形結合を扱うためにマルチフィデリティアンサンブルカルマンフィルタを拡張する。
このようなサロゲートがマルチ忠実フィルタリングの文脈で実際に優れていることを示す標準Lorenz '96モデルについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multifidelity ensemble Kalman filter aims to combine a full-order model
and a hierarchy of reduced order surrogate model in an optimal statistical
framework for Bayesian inference in sequential data assimilation. In this work
we extend the multifidelity ensemble Kalman filter to work with non-linear
couplings between the models. Using autoencoders it is possible to train
optimal projection and interpolation operators, and to obtain reduced order
surrogate models with less error than conventional linear methods. We show on
the canonical Lorenz '96 model that such a surrogate does indeed perform better
in the context of multifidelity filtering.
- Abstract(参考訳): マルチファイデリティアンサンブルKalmanフィルタは、連続データ同化におけるベイズ推論のための最適統計フレームワークにおいて、完全順序モデルと縮小順序サーロゲートモデルの階層を組み合わせることを目的とする。
本研究では,多値アンサンブルカルマンフィルタをモデル間の非線形結合を扱うように拡張する。
オートエンコーダを用いることで、最適射影および補間演算子を訓練し、従来の線形法よりも誤差の少ない順序代理モデルを得ることができる。
このようなサロゲートがマルチ忠実フィルタリングの文脈で実際に優れていることを示す標準Lorenz '96モデルについて述べる。
関連論文リスト
- Multifidelity Cross-validation [0.0]
我々は、複数の忠実度におけるシステムのモデルから観察される関心の量のエミュレートに興味がある。
そこで我々は,LOO-CV(Leave-one-out cross-validation)を用いて代理モデルを積極的に学習する新しい手法を提案する。
本手法は, ガスタービンブレードの熱応力解析だけでなく, 合成試験問題にも有効であることを示す。
論文 参考訳(メタデータ) (2024-07-01T17:42:11Z) - Model Merging and Safety Alignment: One Bad Model Spoils the Bunch [70.614652904151]
LLM(Merging Large Language Models)は、複数の専門家のLLMを1つの汎用モデルに結合するコスト効率のよい手法である。
現在のアプローチでは、マージ時の安全性の整合性の重要性を見落とし、非常に不整合のモデルに繋がることが多い。
我々は,既存の手法がドメインの専門知識を伝達するだけでなく,ミスアライメントを伝播することを示すために,いくつかの一般的なモデルマージ手法を評価した。
論文 参考訳(メタデータ) (2024-06-20T17:59:58Z) - Faster Cascades via Speculative Decoding [66.16909847419198]
カスケードと投機的復号化は、言語モデルの推論効率を改善するためのアプローチである。
提案手法は,投機的実行による推論規則を実装した新しい投機的カスケード手法である。
我々の手法は、カスケードや投機的復号化ベースラインよりもコスト品質のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2024-05-29T16:55:08Z) - Outlier-robust Kalman Filtering through Generalised Bayes [45.51425214486509]
我々は、状態空間モデルにおけるオンラインフィルタリングのための新しい、確実に堅牢でクローズドなベイズ更新ルールを導出する。
提案手法は, より少ない計算コストで, 他の頑健なフィルタリング手法に適合し, 性能が向上する。
論文 参考訳(メタデータ) (2024-05-09T09:40:56Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z) - Model Selection for Bayesian Autoencoders [25.619565817793422]
本稿では,オートエンコーダの出力と経験的データ分布との分散スライス-ワッサーシュタイン距離を最適化することを提案する。
我々のBAEは、フレキシブルなディリクレ混合モデルを潜在空間に適合させることにより、生成モデルに変換する。
我々は,教師なしの学習課題に対する膨大な実験的キャンペーンを質的かつ定量的に評価し,先行研究が重要となる小規模データ体制において,我々のアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-11T08:55:00Z) - BODAME: Bilevel Optimization for Defense Against Model Extraction [10.877450596327407]
私たちは、サービスプロバイダのアタッカーを最も推測する前提の下でモデル抽出を防ぐために、逆の設定を検討します。
真のモデルの予測を用いてサロゲートモデルを定式化する。
勾配降下に基づくアルゴリズムを用いて学習されるより複雑なモデルに対して,トラクタブル変換とアルゴリズムを与える。
論文 参考訳(メタデータ) (2021-03-11T17:08:31Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Learning Deep-Latent Hierarchies by Stacking Wasserstein Autoencoders [22.54887526392739]
本稿では, 最適輸送に基づくディープラーニング階層を用いたモデル学習手法を提案する。
提案手法は, VAEの「潜伏変数崩壊」問題を回避することで, 生成モデルをその深部潜伏階層を完全に活用することを可能にした。
論文 参考訳(メタデータ) (2020-10-07T15:04:20Z) - Cascaded Text Generation with Markov Transformers [122.76100449018061]
ニューラルテキスト生成における2つの主要なアプローチは、シリアルビームサーチデコーディングを使用した完全自己回帰モデルと、出力依存のない並列デコーディングを使用した非自己回帰モデルである。
本稿では,境界付きコンテキストを持つ条件付きランダムフィールドを並列にデコードできることに言及し,高品質な出力を生成するための効率的なカスケードデコード手法を提案する。
このアプローチでは,5つの機械翻訳データセットの既存の手法と比較して,競争力のある精度と速度のトレードオフを示す一方で,標準的な自己回帰トレーニングからのわずかな変更しか必要としない。
論文 参考訳(メタデータ) (2020-06-01T17:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。