論文の概要: DBsurf: A Discrepancy Based Method for Discrete Stochastic Gradient
Estimation
- arxiv url: http://arxiv.org/abs/2309.03974v1
- Date: Thu, 7 Sep 2023 19:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 16:56:01.120349
- Title: DBsurf: A Discrepancy Based Method for Discrete Stochastic Gradient
Estimation
- Title(参考訳): DBsurf:離散確率勾配推定のための離散性に基づく手法
- Authors: Pau Mulet Arabi, Alec Flowers, Lukas Mauch, Fabien Cardinaux
- Abstract要約: 離散分布の強化型推定器DBsurfを紹介する。
サンプルと実際の分布との差を低減するために、新しいサンプリング手順を使用する。
DBsurfは、ベンチマークの文献で一般的に使用される最小二乗問題において、最も低い分散が得られる。
- 参考スコア(独自算出の注目度): 2.89784213091656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computing gradients of an expectation with respect to the distributional
parameters of a discrete distribution is a problem arising in many fields of
science and engineering. Typically, this problem is tackled using Reinforce,
which frames the problem of gradient estimation as a Monte Carlo simulation.
Unfortunately, the Reinforce estimator is especially sensitive to discrepancies
between the true probability distribution and the drawn samples, a common issue
in low sampling regimes that results in inaccurate gradient estimates. In this
paper, we introduce DBsurf, a reinforce-based estimator for discrete
distributions that uses a novel sampling procedure to reduce the discrepancy
between the samples and the actual distribution. To assess the performance of
our estimator, we subject it to a diverse set of tasks. Among existing
estimators, DBsurf attains the lowest variance in a least squares problem
commonly used in the literature for benchmarking. Furthermore, DBsurf achieves
the best results for training variational auto-encoders (VAE) across different
datasets and sampling setups. Finally, we apply DBsurf to build a simple and
efficient Neural Architecture Search (NAS) algorithm with state-of-the-art
performance.
- Abstract(参考訳): 離散分布の分布パラメータに関する期待値の勾配の計算は、科学や工学の多くの分野において生じる問題である。
通常、この問題はモンテカルロシミュレーションとして勾配推定の問題をフレーム化したReinforceを用いて取り組まれる。
残念なことに、補強推定器は、真の確率分布と抽出されたサンプルとの差に特に敏感である。
本稿では,サンプルと実際の分布との差を低減するために,新しいサンプリング手法を用いた離散分布の強化に基づく推定器DBsurfを紹介する。
推定器の性能を評価するために、様々なタスクを課します。
既存の推定子のうち、dbsurfはベンチマークの文献でよく使われる最小二乗問題の最小分散を達成する。
さらに、DBsurfは、さまざまなデータセットとサンプリングセットアップをまたいだ変分自動エンコーダ(VAE)のトレーニングに最適な結果を得る。
最後に、DBsurfを用いて、最先端の性能を持つ単純で効率的なニューラルネットワーク探索(NAS)アルゴリズムを構築する。
関連論文リスト
- Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Entropy-MCMC: Sampling from Flat Basins with Ease [10.764160559530849]
我々は, シャープモードから解放された円滑な後円板に類似した定常分布である補助誘導変数を導入し, MCMC試料を平らな盆地に導出する。
この導出変数をモデルパラメータと統合することにより、計算オーバーヘッドを最小限に抑えた効率的なサンプリングを可能にする、単純なジョイント分布を作成する。
実験により,提案手法は後方の平らな盆地から試料を採取し,比較したベースラインを複数ベンチマークで比較した。
論文 参考訳(メタデータ) (2023-10-09T04:40:20Z) - Bayesian Cramér-Rao Bound Estimation with Score-Based Models [3.4480437706804503]
ベイジアンクラム・ラオ境界(英語版)(英: Bayesian Cram'er-Rao bound, CRB)は、任意のベイジアン推定器の平均二乗誤差に対する下界を与える。
本研究は,スコアマッチングを用いたCRBのための新しいデータ駆動推定手法を提案する。
論文 参考訳(メタデータ) (2023-09-28T00:22:21Z) - Collapsed Inference for Bayesian Deep Learning [36.1725075097107]
本稿では,崩壊サンプルを用いたベイズモデル平均化を行う新しい崩壊予測手法を提案する。
崩壊したサンプルは、近似後部から引き出された数え切れないほど多くのモデルを表す。
提案手法は, スケーラビリティと精度のバランスをとる。
論文 参考訳(メタデータ) (2023-06-16T08:34:42Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Distributed Sketching Methods for Privacy Preserving Regression [54.51566432934556]
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
従来のスケッチ手法に対する新しい近似保証を導出し、分散スケッチにおけるパラメータ平均化の精度を解析する。
大規模実験によるサーバレスコンピューティングプラットフォームにおける分散スケッチのパフォーマンスについて説明する。
論文 参考訳(メタデータ) (2020-02-16T08:35:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。