論文の概要: Dirichlet process mixture models for non-stationary data streams
- arxiv url: http://arxiv.org/abs/2210.06872v1
- Date: Thu, 13 Oct 2022 09:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:49:31.062091
- Title: Dirichlet process mixture models for non-stationary data streams
- Title(参考訳): 非定常データストリームに対するディリクレプロセス混合モデル
- Authors: Ioar Casado, Aritz P\'erez
- Abstract要約: ディリクレプロセス混合モデルに対する変分推論アルゴリズムを提案する。
提案手法は, 従来の大域的パラメータを指数的に忘れることによって, ドリフトの概念に対処する。
我々のアルゴリズムは、学習したモデルをドリフトに自動的に適応させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, we have seen a handful of work on inference algorithms over
non-stationary data streams. Given their flexibility, Bayesian non-parametric
models are a good candidate for these scenarios. However, reliable streaming
inference under the concept drift phenomenon is still an open problem for these
models. In this work, we propose a variational inference algorithm for
Dirichlet process mixture models. Our proposal deals with the concept drift by
including an exponential forgetting over the prior global parameters. Our
algorithm allows to adapt the learned model to the concept drifts
automatically. We perform experiments in both synthetic and real data, showing
that the proposed model is competitive with the state-of-the-art algorithms in
the density estimation problem, and it outperforms them in the clustering
problem.
- Abstract(参考訳): 近年,非定常データストリームに対する推論アルゴリズムの研究がいくつか行われている。
その柔軟性を考えると、ベイズ非パラメトリックモデルはこれらのシナリオのよい候補である。
しかし、コンセプトドリフト現象の下での信頼性のあるストリーミング推論は、これらのモデルにはまだ未解決の問題である。
本研究では,ディリクレ過程混合モデルに対する変分推論アルゴリズムを提案する。
本提案は,先行するグローバルパラメータを指数関数的に忘れてしまうことで,概念のドリフトに対処する。
本アルゴリズムは,学習モデルを自動的にドリフトに適用する。
本研究では,合成データと実データの両方で実験を行い,提案モデルが密度推定問題における最先端アルゴリズムと競合していることを示す。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Kullback-Leibler Barycentre of Stochastic Processes [0.0]
エージェントが様々な専門家のモデルに対する見解と洞察を組み合わせることを目的とした問題を考える。
バリセントモデルの存在と特異性を示し、ラドン-ニコディム微分の明示的な表現を証明する。
合成モデルの最適ドリフトを求めるために,2つのディープラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-05T20:45:27Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Solving Inverse Problems with Latent Diffusion Models via Hard Data Consistency [7.671153315762146]
画素空間におけるトレーニング拡散モデルは、データ集約的かつ計算的に要求される。
非常に低次元空間で動作する潜在拡散モデルは、これらの課題に対する解決策を提供する。
我々は,事前学習した潜在拡散モデルを用いて,一般的な逆問題を解決するアルゴリズムであるtextitReSampleを提案する。
論文 参考訳(メタデータ) (2023-07-16T18:42:01Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Distributed Bayesian Learning of Dynamic States [65.7870637855531]
提案アルゴリズムは有限状態隠れマルコフモデルに対する分散ベイズフィルタタスクである。
逐次状態推定や、動的環境下でのソーシャルネットワーク上での意見形成のモデル化に使用できる。
論文 参考訳(メタデータ) (2022-12-05T19:40:17Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Modeling Stochastic Microscopic Traffic Behaviors: a Physics Regularized
Gaussian Process Approach [1.6242924916178285]
本研究では,実世界のランダム性を捉え,誤差を計測できる微視的交通モデルを提案する。
提案フレームワークの特長の一つは,自動車追従行動と車線変更行動の両方を1つのモデルで捉える能力である。
論文 参考訳(メタデータ) (2020-07-17T06:03:32Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。