論文の概要: A Hitchhiker's Guide to Poisson Gradient Estimation
- arxiv url: http://arxiv.org/abs/2602.03896v1
- Date: Tue, 03 Feb 2026 08:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.211209
- Title: A Hitchhiker's Guide to Poisson Gradient Estimation
- Title(参考訳): ポアソン勾配推定のためのヒッチハイカーガイド
- Authors: Michael Ibrahim, Hanqi Zhao, Eli Sennesh, Zhi Li, Anqi Wu, Jacob L. Yates, Chengrui Li, Hadi Vafaii,
- Abstract要約: Exponential Arrival Time (EAT) シミュレーションと Gumbel-SoftMax 緩和である。
実践者のための実践的指導とともに,これらの手法を初めて体系的に比較した。
我々の主な技術的貢献は、理論的に偏りのない最初の瞬間を保証するEAT法の変更である。
- 参考スコア(独自算出の注目度): 16.49596167629642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Poisson-distributed latent variable models are widely used in computational neuroscience, but differentiating through discrete stochastic samples remains challenging. Two approaches address this: Exponential Arrival Time (EAT) simulation and Gumbel-SoftMax (GSM) relaxation. We provide the first systematic comparison of these methods, along with practical guidance for practitioners. Our main technical contribution is a modification to the EAT method that theoretically guarantees an unbiased first moment (exactly matching the firing rate), and reduces second-moment bias. We evaluate these methods on their distributional fidelity, gradient quality, and performance on two tasks: (1) variational autoencoders with Poisson latents, and (2) partially observable generalized linear models, where latent neural connectivity must be inferred from observed spike trains. Across all metrics, our modified EAT method exhibits better overall performance (often comparable to exact gradients), and substantially higher robustness to hyperparameter choices. Together, our results clarify the trade-offs between these methods and offer concrete recommendations for practitioners working with Poisson latent variable models.
- Abstract(参考訳): ポアソン分散潜伏変数モデルは計算神経科学において広く用いられているが、離散確率的サンプルによる微分は依然として困難である。
Exponential Arrival Time (EAT) シミュレーションとGumbel-SoftMax (GSM) 緩和である。
実践者のための実践的指導とともに,これらの手法を初めて体系的に比較した。
我々の主な技術的貢献は、理論的に第一モーメントの偏りを保証し、第二モーメントバイアスを減少させるEAT法の変更である。
これらの手法は,(1)ポアソン潜水器を用いた変分オートエンコーダ,(2)部分的に観測可能な一般化線形モデルという2つのタスクにおける分布の忠実度,勾配品質,および性能について評価する。
全ての指標において、修正EAT法では、全体的な性能(しばしば正確な勾配に匹敵する)が向上し、ハイパーパラメータ選択に対するロバスト性が著しく向上する。
本稿では,これらの手法間のトレードオフを明らかにするとともに,Poisson潜伏変数モデルを用いた実践者に対して具体的な勧告を行う。
関連論文リスト
- Improving Minimax Estimation Rates for Contaminated Mixture of Multinomial Logistic Experts via Expert Heterogeneity [49.809923981964715]
凍結したエキスパートとして機能する事前訓練されたモデルを、新しいタスクを学ぶためにトレーニング可能なエキスパートとして機能するアダプタモデルに統合するトランスファー学習手法によって、汚染された専門家の混合(MoE)が動機付けられる。
本研究は, 地絡パラメータがサンプルサイズによって異なる困難な条件下で, パラメータを推定するための一様収束率を特徴付ける。
また、対応するミニマックス下限を定め、これらのレートがミニマックス最適であることを保証する。
論文 参考訳(メタデータ) (2026-01-31T23:45:50Z) - Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update [70.38810219913593]
非線形リンク関数を組み込んで古典線形モデルを拡張したコンテキスト型多武装バンディットフレームワークである一般化線形バンディット問題(GLB)について検討する。
GLBは現実世界のシナリオに広く適用できるが、その非線形性は計算効率と統計効率の両方を達成する上で大きな課題をもたらす。
本稿では,$mathcalO(1)$時間と1ラウンドあたりの空間複雑度をほぼ最適に再現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T02:24:21Z) - Variational Autoencoders for Efficient Simulation-Based Inference [2.0034235495967736]
本稿では、確率自由なシミュレーションに基づく推論のための変分推論フレームワークに基づく生成的モデリング手法を提案する。
本稿では, 計算効率を高い精度で維持しつつ, 複雑な後続を近似する手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T12:24:13Z) - Efficient, Multimodal, and Derivative-Free Bayesian Inference With Fisher-Rao Gradient Flows [10.153270126742369]
正規化定数を含む確率分布の効率的な近似サンプリングについて検討した。
具体的には,科学技術応用における大規模逆問題に対するベイズ推定における問題クラスに着目する。
論文 参考訳(メタデータ) (2024-06-25T04:07:22Z) - A Class of Two-Timescale Stochastic EM Algorithms for Nonconvex Latent
Variable Models [21.13011760066456]
expectation-Maximization (EM)アルゴリズムは、変数モデルを学習するための一般的な選択肢である。
本稿では,Two-Time Methodsと呼ばれる手法の一般クラスを提案する。
論文 参考訳(メタデータ) (2022-03-18T22:46:34Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - SODEN: A Scalable Continuous-Time Survival Model through Ordinary
Differential Equation Networks [14.564168076456822]
本稿では、ニューラルネットワークとスケーラブルな最適化アルゴリズムを用いた生存分析のためのフレキシブルモデルを提案する。
提案手法の有効性を,既存の最先端ディープラーニングサバイバル分析モデルと比較した。
論文 参考訳(メタデータ) (2020-08-19T19:11:25Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。