論文の概要: Faster Uncertainty Quantification for Inverse Problems with Conditional
Normalizing Flows
- arxiv url: http://arxiv.org/abs/2007.07985v1
- Date: Wed, 15 Jul 2020 20:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 05:28:02.902337
- Title: Faster Uncertainty Quantification for Inverse Problems with Conditional
Normalizing Flows
- Title(参考訳): 条件付き正規化流を伴う逆問題の高速不確かさ定量化
- Authors: Ali Siahkoohi, Gabrio Rizzuti, Philipp A. Witte, Felix J. Herrmann
- Abstract要約: 逆問題では、ペア化されたサンプル$(x,y)sim p_X,Y(x,y)$で、$y$は物理系の部分的な観測であることが多い。
条件付きジェネレータ$q_theta(x|y)$をトレーニングするために,フローとジョイントデータを正規化する2段階のスキームを提案する。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In inverse problems, we often have access to data consisting of paired
samples $(x,y)\sim p_{X,Y}(x,y)$ where $y$ are partial observations of a
physical system, and $x$ represents the unknowns of the problem. Under these
circumstances, we can employ supervised training to learn a solution $x$ and
its uncertainty from the observations $y$. We refer to this problem as the
"supervised" case. However, the data $y\sim p_{Y}(y)$ collected at one point
could be distributed differently than observations $y'\sim p_{Y}'(y')$,
relevant for a current set of problems. In the context of Bayesian inference,
we propose a two-step scheme, which makes use of normalizing flows and joint
data to train a conditional generator $q_{\theta}(x|y)$ to approximate the
target posterior density $p_{X|Y}(x|y)$. Additionally, this preliminary phase
provides a density function $q_{\theta}(x|y)$, which can be recast as a prior
for the "unsupervised" problem, e.g.~when only the observations $y'\sim
p_{Y}'(y')$, a likelihood model $y'|x$, and a prior on $x'$ are known. We then
train another invertible generator with output density $q'_{\phi}(x|y')$
specifically for $y'$, allowing us to sample from the posterior
$p_{X|Y}'(x|y')$. We present some synthetic results that demonstrate
considerable training speedup when reusing the pretrained network
$q_{\theta}(x|y')$ as a warm start or preconditioning for approximating
$p_{X|Y}'(x|y')$, instead of learning from scratch. This training modality can
be interpreted as an instance of transfer learning. This result is particularly
relevant for large-scale inverse problems that employ expensive numerical
simulations.
- Abstract(参考訳): 逆問題では、ペア化されたサンプル$(x,y)\sim p_{X,Y}(x,y)$で、$y$は物理系の部分的な観測であり、$x$は問題の未知の部分を表す。
このような状況下では、教師付きトレーニングを使用して、x$とその観測結果から不確実性を学ぶことができる。
我々はこの問題を「監督された」ケースと呼ぶ。
しかし、ある時点で収集されたデータ $y\sim p_{y}(y)$ は、現在の問題の集合に関連する観測値 $y'\sim p_{y}'(y')$ とは異なる分散が可能である。
ベイズ推定の文脈では、正規化フローとジョイントデータを用いて条件付き生成器$q_{\theta}(x|y)$を訓練し、目標後方密度$p_{x|y}(x|y)$を近似する二段階スキームを提案する。
さらに、この予備位相は密度関数 $q_{\theta}(x|y)$ を提供するが、これは「教師なし」問題の先行として再キャストできる(例えば、観測値 $y'\sim p_{Y}'(y')$, 可能性モデル $y'|x$, および$x'$ が知られている場合)。
次に、出力密度$q'_{\phi}(x|y')$、特に$y'$で別の可逆生成器を訓練し、後続の$p_{X|Y}'(x|y')$からサンプリングすることができる。
トレーニング済みのネットワークである$q_{\theta}(x|y')$を、ゼロから学習する代わりに、p_{X|Y}'(x|y')$を近似するためのウォームスタートやプレコンディショニングとして使用する際に、かなりのトレーニングスピードアップを示す合成結果を示す。
このトレーニングモダリティは、転校学習の例として解釈することができる。
この結果は、高価な数値シミュレーションを用いる大規模逆問題に特に関係している。
関連論文リスト
- IT$^3$: Idempotent Test-Time Training [95.78053599609044]
本稿では,分散シフトの課題に対処する新しいアプローチであるIdempotent Test-Time Training (IT$3$)を紹介する。
IT$3$は、イデオロジェンスの普遍性に基づいている。
画像分類の劣化など,様々なタスクにまたがるアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - Transformer In-Context Learning for Categorical Data [51.23121284812406]
我々は、分類結果、非線形基礎モデル、非線形注意を考慮し、文脈内学習のレンズを通してトランスフォーマーを理解する研究を機能データで拡張する。
我々は、ImageNetデータセットを用いて、この数発の学習方法論の最初の実世界の実演であると考えられるものを提示する。
論文 参考訳(メタデータ) (2024-05-27T15:03:21Z) - Distribution-Independent Regression for Generalized Linear Models with
Oblivious Corruptions [49.69852011882769]
一般化線形モデル (GLMs) の重畳雑音の存在下での回帰問題に対する最初のアルゴリズムを示す。
本稿では,この問題に最も一般的な分布非依存設定で対処するアルゴリズムを提案する。
これは、サンプルの半分以上を任意に破損させる難聴ノイズを持つGLMレグレッションに対する最初の新しいアルゴリズムによる結果である。
論文 参考訳(メタデータ) (2023-09-20T21:41:59Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Phase Transitions in the Detection of Correlated Databases [12.010807505655238]
本稿では,2つのガウスデータベースの相関関係を$mathsfXinmathbbRntimes d$と$mathsfYntimes d$で検出する問題について検討する。
この問題は、ソーシャルメディア、計算生物学などの分析に関係している。
論文 参考訳(メタデータ) (2023-02-07T10:39:44Z) - Robust Testing in High-Dimensional Sparse Models [0.0]
2つの異なる観測モデルの下で高次元スパース信号ベクトルのノルムを頑健にテストする問題を考察する。
回帰係数のノルムを確実に検定するアルゴリズムは、少なくとも$n=Omegaleft(min(slog d,1/gamma4)right)サンプルを必要とする。
論文 参考訳(メタデータ) (2022-05-16T07:47:22Z) - Mediated Uncoupled Learning: Learning Functions without Direct
Input-output Correspondences [80.95776331769899]
ペア化されたデータがない場合、$X$から$Y$を予測するタスクを考えます。
単純なアプローチは、$S_X$で$U$から$U$を予測し、$S_Y$で$U$から$Y$を予測することである。
我々は$U$を予測しない新しい方法を提案するが、$f(X)$と$S_X$をトレーニングすることで$Y = f(X)$を直接学習し、$h(U)$を予測する。
論文 参考訳(メタデータ) (2021-07-16T22:13:29Z) - Learning the optimal regularizer for inverse problems [1.763934678295407]
線形逆問題 $y=Ax+epsilon$ を考えると、$Acolon Xto Y$ は分離可能なヒルベルト空間 $X$ と $Y$ の間の既知の線型作用素である。
この設定は、デノイング、デブロアリング、X線トモグラフィーなど、画像のいくつかの逆問題を含んでいる。
古典的な正規化の枠組みの中では、正規化関数が優先順位を与えられず、データから学習される場合に焦点を当てる。
論文 参考訳(メタデータ) (2021-06-11T17:14:27Z) - An Algorithm for Learning Smaller Representations of Models With Scarce
Data [0.0]
データセットが小さすぎるか、完全に代表的でない状況下で、二項分類問題を解くための欲求的アルゴリズムを提案する。
それは、ゆるやかな精度の制約、反復的なハイパーパラメータプルーニング手順、新しいデータを生成するために使われる関数といった訓練されたモデルに依存している。
論文 参考訳(メタデータ) (2020-10-15T19:17:51Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - The Sparse Hausdorff Moment Problem, with Application to Topic Models [5.151973524974052]
我々は$m=2k$iid二進確率変数のサンプルを用いて$k$-mixtureを同定するアルゴリズムを提案する。
加法精度$w_mincdotzetaO(k)$のモーメントを知るだけで十分である。
論文 参考訳(メタデータ) (2020-07-16T04:23:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。