論文の概要: Sourcerer: Sample-based Maximum Entropy Source Distribution Estimation
- arxiv url: http://arxiv.org/abs/2402.07808v1
- Date: Mon, 12 Feb 2024 17:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 13:33:03.004151
- Title: Sourcerer: Sample-based Maximum Entropy Source Distribution Estimation
- Title(参考訳): Sourcerer:サンプルベース最大エントロピー源分布推定
- Authors: Julius Vetter, Guy Moss, Cornelius Schr\"oder, Richard Gao, Jakob H.
Macke
- Abstract要約: 本稿では,最大エントロピー分布,すなわち可能な限り不確実性を維持することを優先する手法を提案する。
提案手法は,Sliced-Wasserstein距離を利用して,データセットとシミュレーションの差分を測定する。
提案手法の有用性を実証するために,何千もの測定値を持つ実験データセットから,ホジキン・ホクスリーニューロンモデルのパラメータのソース分布を推定する。
- 参考スコア(独自算出の注目度): 5.390514665166601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific modeling applications often require estimating a distribution of
parameters consistent with a dataset of observations - an inference task also
known as source distribution estimation. This problem can be ill-posed,
however, since many different source distributions might produce the same
distribution of data-consistent simulations. To make a principled choice among
many equally valid sources, we propose an approach which targets the maximum
entropy distribution, i.e., prioritizes retaining as much uncertainty as
possible. Our method is purely sample-based - leveraging the Sliced-Wasserstein
distance to measure the discrepancy between the dataset and simulations - and
thus suitable for simulators with intractable likelihoods. We benchmark our
method on several tasks, and show that it can recover source distributions with
substantially higher entropy without sacrificing the fidelity of the
simulations. Finally, to demonstrate the utility of our approach, we infer
source distributions for parameters of the Hodgkin-Huxley neuron model from
experimental datasets with thousands of measurements. In summary, we propose a
principled framework for inferring unique source distributions of scientific
simulator parameters while retaining as much uncertainty as possible.
- Abstract(参考訳): 科学的モデリングアプリケーションでは、しばしば観測のデータセットと一貫性のあるパラメータの分布を推定する必要がある。
しかし、多くの異なるソース分布がデータ一貫性のあるシミュレーションの同じ分布を生成する可能性があるため、この問題は不適切である。
等しく有効な多くの情報源の中から原則的選択を行うために,最大エントロピー分布,すなわち可能な限り不確実性を維持することを優先するアプローチを提案する。
本手法は純粋にサンプルベースであり,データセットとシミュレーション間の不一致を測定するためにスライスされたwasserstein距離を利用する。
本手法をいくつかのタスクでベンチマークし,シミュレーションの信頼性を犠牲にすることなく,より高いエントロピーで音源分布を回復できることを示した。
最後に,本手法の有用性を示すために,何千もの測定値を持つ実験データセットから,ホジキン・ホクスリーニューロンモデルのパラメータのソース分布を推定する。
本稿では,科学シミュレーションパラメータのユニークなソース分布を可能な限り不確実性を維持しつつ推定する枠組みを提案する。
関連論文リスト
- Transformer-based Parameter Estimation in Statistics [0.0]
パラメータ推定のための変換器に基づく手法を提案する。
数値法で必要とされる確率密度関数を知る必要さえない。
提案手法は,平均二乗誤差で測定した手法と類似あるいは良好な精度を達成できることが示されている。
論文 参考訳(メタデータ) (2024-02-28T04:30:41Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Guaranteed Optimal Generative Modeling with Maximum Deviation from the
Empirical Distribution [0.0]
ジェネレーティブ・モデリング(Generative Modeling)は、科学および産業分野で様々な用途に応用された機械学習手法である。
その主な目的は、トレーニングデータから得られた未知の分布から引き出された新しいサンプルをシミュレートし、多様性を確保し、トレーニングデータからのサンプルの複製を避けることである。
本稿では, 実データ生成分布を学習データ生成分布に置き換える誤差は, サンプルサイズが無限大に近づくにつれて, 最適に0に収束する必要があり, トレーニングデータ中の任意の分布複製例から, 学習データ生成分布が十分遠く離れるべきである,という2つの特性を持つ生成モデルのトレーニングに関する理論的知見を示す。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - Score-based Source Separation with Applications to Digital Communication
Signals [72.6570125649502]
拡散モデルを用いた重畳音源の分離手法を提案する。
高周波(RF)システムへの応用によって、我々は、基礎となる離散的な性質を持つ情報源に興味を持っている。
提案手法は,最近提案されたスコア蒸留サンプリング方式のマルチソース拡張と見なすことができる。
論文 参考訳(メタデータ) (2023-06-26T04:12:40Z) - Unsupervised Learning of Sampling Distributions for Particle Filters [80.6716888175925]
観測結果からサンプリング分布を学習する4つの方法を提案する。
実験により、学習されたサンプリング分布は、設計された最小縮退サンプリング分布よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-02-02T15:50:21Z) - Nonparametric likelihood-free inference with Jensen-Shannon divergence
for simulator-based models with categorical output [1.4298334143083322]
シミュレータに基づく統計モデルに対する自由な推論は、機械学習と統計のコミュニティの両方において、関心の高まりを招いている。
本稿では、Jensen-Shannon- divergenceの計算特性を用いて、モデルパラメータに対する推定、仮説テスト、信頼区間の構築を可能にする理論的結果のセットを導出する。
このような近似はより集中的なアプローチの素早い代替手段であり、シミュレーターベースモデルの多種多様な応用には魅力的である。
論文 参考訳(メタデータ) (2022-05-22T18:00:13Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Wasserstein Distributionally Robust Optimization via Wasserstein
Barycenters [10.103413548140848]
確率分布の一定距離内にデータサンプルから構築した名目分布から,最も有害な分布下で良好に機能するデータ駆動決定を求める。
本稿では,複数の情報源からのデータサンプルの集約として,Wasserstein Barycenterという概念を用いて,分散的に頑健な最適化問題における名目分布を構築することを提案する。
論文 参考訳(メタデータ) (2022-03-23T02:03:47Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z) - Neural Empirical Bayes: Source Distribution Estimation and its
Applications to Simulation-Based Inference [9.877509217895263]
ニューラルネットワークによる経験的ベイズ手法は,地中真理源分布を復元する。
また,コライダー物理の逆問題に対するニューラル経験ベイズの適用性を示す。
論文 参考訳(メタデータ) (2020-11-11T14:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。