論文の概要: Robust and Scalable Bayesian Online Changepoint Detection
- arxiv url: http://arxiv.org/abs/2302.04759v2
- Date: Fri, 12 May 2023 14:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 15:52:22.530526
- Title: Robust and Scalable Bayesian Online Changepoint Detection
- Title(参考訳): ロバストかつスケーラブルなベイズオンライン変更点検出
- Authors: Matias Altamirano, Fran\c{c}ois-Xavier Briol, Jeremias Knoblauch
- Abstract要約: 本稿では、変更点検出のためのオンラインで、確実に堅牢でスケーラブルなベイズ的手法を提案する。
結果のアルゴリズムは正確で、単純な代数で更新でき、最も近い競合より10倍以上高速である。
- 参考スコア(独自算出の注目度): 4.350783459690612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an online, provably robust, and scalable Bayesian
approach for changepoint detection. The resulting algorithm has key advantages
over previous work: it provides provable robustness by leveraging the
generalised Bayesian perspective, and also addresses the scalability issues of
previous attempts. Specifically, the proposed generalised Bayesian formalism
leads to conjugate posteriors whose parameters are available in closed form by
leveraging diffusion score matching. The resulting algorithm is exact, can be
updated through simple algebra, and is more than 10 times faster than its
closest competitor.
- Abstract(参考訳): 本稿では,オンラインかつ実現可能なロバストでスケーラブルな変更点検出手法を提案する。
このアルゴリズムは、一般化されたベイズ的視点を利用して証明可能な堅牢性を提供し、また、以前の試みのスケーラビリティ問題にも対処する。
具体的には、提案する一般化ベイズ形式は拡散スコアマッチングを活用し、パラメータが閉じた形で利用可能となる共役後続性をもたらす。
結果のアルゴリズムは正確で、単純な代数で更新でき、最も近い競合より10倍以上高速である。
関連論文リスト
- Bayesian Online Natural Gradient (BONG) [9.800443064368467]
変分ベイズ(VB)に基づく逐次ベイズ推論への新しいアプローチを提案する。
重要な洞察は、オンライン環境では、前もって正規化するためにKLという用語を追加する必要はありません。
提案手法は,非共役条件下での他のオンラインVB手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-30T04:27:36Z) - Robust Bayesian Recourse [13.526999070658231]
アルゴリズムのリコースは、好ましくない機械学習の決定を覆すために、情報的なフィードバックを推奨することを目的としている。
本稿では,後続確率オッズ比を最小化するモデル非依存リコースであるベイズ的リコースを紹介する。
我々は、機械学習モデルパラメータの将来の変更に対処する目的で、min-maxのロバストな競合を提示する。
論文 参考訳(メタデータ) (2022-06-22T04:17:17Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Fast Simultaneous Gravitational Alignment of Multiple Point Sets [82.32416743939004]
本稿では,複数点集合の同時登録のための新しいレジリエントな手法を提案し,後者を相互誘導力場内で厳密に動く粒子群として解釈する。
物理法則の変更によるシミュレーションの改善と、グローバルな多重リンク点相互作用の加速により、MBGA(Multi-Body Gravitational Approach)はノイズや欠落データに対して堅牢である。
様々な実験環境では、MBGAは精度と実行時間の観点から、いくつかの基準点セットアライメントアプローチより優れていることが示されている。
論文 参考訳(メタデータ) (2021-06-21T17:59:40Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Reducing the Amortization Gap in Variational Autoencoders: A Bayesian
Random Function Approach [38.45568741734893]
GPモデルの推論は、セミアモタイズ法よりもはるかに高速な1つのフィードフォワードパスによって行われる。
提案手法は,複数のベンチマークデータセットの最先端データよりも高い確率でテストデータが得られることを示す。
論文 参考訳(メタデータ) (2021-02-05T13:01:12Z) - The FMRIB Variational Bayesian Inference Tutorial II: Stochastic
Variational Bayes [1.827510863075184]
このチュートリアルは、オリジナルのFMRIB Variational Bayesチュートリアルを再考する。
この新しいアプローチは、機械学習アルゴリズムに適用された計算方法に多くの類似性を持ち、恩恵を受けている。
論文 参考訳(メタデータ) (2020-07-03T11:31:52Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Optimal Change-Point Detection with Training Sequences in the Large and
Moderate Deviations Regimes [72.68201611113673]
本稿では,情報理論の観点から,新しいオフライン変化点検出問題について検討する。
基礎となる事前および変更後分布の知識は分かっておらず、利用可能なトレーニングシーケンスからのみ学習できると仮定する。
論文 参考訳(メタデータ) (2020-03-13T23:39:40Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。