論文の概要: Error-in-variables modelling for operator learning
- arxiv url: http://arxiv.org/abs/2204.10909v1
- Date: Fri, 22 Apr 2022 19:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 06:41:22.262111
- Title: Error-in-variables modelling for operator learning
- Title(参考訳): 演算子学習のための誤り変数モデリング
- Authors: Ravi G. Patel, Indu Manickam, Myoungkyu Lee, Mamikon Gulian
- Abstract要約: ノイズの多い独立変数を考慮できないと、偏りのあるパラメータ推定に繋がる。
本研究では,独立変数と依存変数の両方において白色雑音を伴う線形作用素回帰に対する減衰バイアスの類似式を導出する。
本稿では,MOR-Physics と DeepONet の2つの演算子回帰法に対する誤差不変変数(EiV)モデルを提案する。
- 参考スコア(独自算出の注目度): 0.35880734696551125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep operator learning has emerged as a promising tool for reduced-order
modelling and PDE model discovery. Leveraging the expressive power of deep
neural networks, especially in high dimensions, such methods learn the mapping
between functional state variables. While proposed methods have assumed noise
only in the dependent variables, experimental and numerical data for operator
learning typically exhibit noise in the independent variables as well, since
both variables represent signals that are subject to measurement error. In
regression on scalar data, failure to account for noisy independent variables
can lead to biased parameter estimates. With noisy independent variables,
linear models fitted via ordinary least squares (OLS) will show attenuation
bias, wherein the slope will be underestimated. In this work, we derive an
analogue of attenuation bias for linear operator regression with white noise in
both the independent and dependent variables. In the nonlinear setting, we
computationally demonstrate underprediction of the action of the Burgers
operator in the presence of noise in the independent variable. We propose
error-in-variables (EiV) models for two operator regression methods,
MOR-Physics and DeepONet, and demonstrate that these new models reduce bias in
the presence of noisy independent variables for a variety of operator learning
problems. Considering the Burgers operator in 1D and 2D, we demonstrate that
EiV operator learning robustly recovers operators in high-noise regimes that
defeat OLS operator learning. We also introduce an EiV model for time-evolving
PDE discovery and show that OLS and EiV perform similarly in learning the
Kuramoto-Sivashinsky evolution operator from corrupted data, suggesting that
the effect of bias in OLS operator learning depends on the regularity of the
target operator.
- Abstract(参考訳): ディープオペレータ学習は、低次モデリングとpdeモデル発見の有望なツールとして登場した。
ディープニューラルネットワークの表現力、特に高次元を利用して、そのような手法は機能状態変数間のマッピングを学ぶ。
提案手法は従属変数のみにノイズを仮定するが, 操作者学習のための実験データや数値データは, 測定誤差の対象となる信号を表すため, 独立変数にもノイズを呈する。
スカラーデータの回帰では、ノイズの多い独立変数を説明できないと、偏りのあるパラメータ推定につながる。
雑音のない独立変数では、通常の最小二乗(OLS)を通した線形モデルは減衰バイアスを示し、傾きは過小評価される。
本研究では,独立変数と依存変数の両方において白色雑音を伴う線形作用素回帰に対する減衰バイアスのアナログを導出する。
非線形環境では、独立変数における雑音の存在下でのバーガーズ作用素の作用の非予測を数値的に示す。
本稿では,MOR-PhysicsとDeepONetという2つの演算子回帰法に対する誤差不変変数(EiV)モデルを提案する。
1Dおよび2Dのバーガース演算子を考えると、EeV演算子学習はOLS演算子学習を破る高雑音状態の演算子を頑健に回復することを示した。
また,時間発展型pde発見のための eiv モデルを導入し,ols と eiv が腐敗したデータから kuramoto-sivashinsky 進化演算子を学習する際にも同様に作用することを示し,ols オペレーター学習におけるバイアスの影響が対象オペレータの規則性に依存することを示唆する。
関連論文リスト
- A Differentiable Partially Observable Generalized Linear Model with
Forward-Backward Message Passing [2.600709013150986]
既存の作業で用いられるスコア関数勾配推定器よりも優れたパスワイズ勾配推定器を実現できる新しい微分可能なPOGLMを提案する。
我々の新しい手法はより解釈可能なパラメータをもたらし、神経科学におけるその重要性を裏付ける。
論文 参考訳(メタデータ) (2024-02-02T09:34:49Z) - Doubly Stochastic Models: Learning with Unbiased Label Noises and
Inference Stability [85.1044381834036]
勾配降下のミニバッチサンプリング設定におけるラベル雑音の暗黙的正則化効果について検討した。
そのような暗黙的正則化器は、パラメータの摂動に対してモデル出力を安定化できる収束点を好んでいる。
我々の研究は、SGDをオルンシュタイン-ウレンベック類似の過程とはみなせず、近似の収束によってより一般的な結果を得る。
論文 参考訳(メタデータ) (2023-04-01T14:09:07Z) - Sharp Spectral Rates for Koopman Operator Learning [27.820383937933034]
クープマン固有値と固有関数に対する非漸近学習境界を初めて提示する。
我々の結果は、突発的固有値の出現に新たな光を当てた。
論文 参考訳(メタデータ) (2023-02-03T21:19:56Z) - Operator inference with roll outs for learning reduced models from
scarce and low-quality data [0.0]
本稿では、演算子推論によるデータ駆動モデリングと、ニューラル常微分方程式のロールアウトによる動的トレーニングを組み合わせることを提案する。
実験では,データのサンプル化やノイズの最大10%の汚染があっても,ロールアウトによる演算子推論が学習軌跡からの予測モデルを提供することを示した。
論文 参考訳(メタデータ) (2022-12-02T19:41:31Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections [5.524804393257921]
eXplainable AI(XAI)を使用して、モデルが予測器を使用して予測に到達する方法を示す。
予測器間の相互作用が変数重要度推定にどのように影響するかを理解するために,LVAを線形射影に変換することができる。
このアプローチは、分類学的(ペンギン種、チョコレートタイプ)と定量的(靴と足の給与、住宅価格)の応答モデルから例を示します。
論文 参考訳(メタデータ) (2022-05-11T09:11:02Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Bias-Variance Tradeoffs in Single-Sample Binary Gradient Estimators [100.58924375509659]
ストレートスルー (ST) 推定器はその単純さと効率性から人気を得た。
計算の複雑さを低く保ちながら、STよりも改善するいくつかの手法が提案された。
我々は、トレードオフを理解し、元来主張された特性を検証するために、これらの手法のバイアスとばらつきの理論解析を行う。
論文 参考訳(メタデータ) (2021-10-07T15:16:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。