論文の概要: Powered Dirichlet Process for Controlling the Importance of
"Rich-Get-Richer" Prior Assumptions in Bayesian Clustering
- arxiv url: http://arxiv.org/abs/2104.12485v1
- Date: Mon, 26 Apr 2021 11:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 22:03:46.102639
- Title: Powered Dirichlet Process for Controlling the Importance of
"Rich-Get-Richer" Prior Assumptions in Bayesian Clustering
- Title(参考訳): ベイズクラスタリングにおける「リッチ・ゲット・リチャー」の事前推定の重要性制御のためのパワーディリクレ法
- Authors: Ga\"el Poux-M\'edard and Julien Velcin and Sabine Loudcher
- Abstract要約: ディリクレプリメントは必ずしもデータをモデル化する最善の選択ではないことを示す。
我々は、dirichlet-multinomial distributionの修正版から、パワード中華料理のプロセスを引き出す。
この方向の最先端の努力とは異なり、この新しい定式化により、"rich-get-richer" の重要性を直接制御することができる。
- 参考スコア(独自算出の注目度): 2.9972063833424216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most used priors in Bayesian clustering is the Dirichlet prior. It
can be expressed as a Chinese Restaurant Process. This process allows
nonparametric estimation of the number of clusters when partitioning datasets.
Its key feature is the "rich-get-richer" property, which assumes a cluster has
an a priori probability to get chosen linearly dependent on population. In this
paper, we show that such prior is not always the best choice to model data. We
derive the Powered Chinese Restaurant process from a modified version of the
Dirichlet-Multinomial distribution to answer this problem. We then develop some
of its fundamental properties (expected number of clusters, convergence).
Unlike state-of-the-art efforts in this direction, this new formulation allows
for direct control of the importance of the "rich-get-richer" prior.
- Abstract(参考訳): ベイズクラスタリングで最もよく使われる優先事項の1つはディリクレプリルである。
中華料理として表現できる。
このプロセスにより、データセットを分割する際のクラスタ数の非パラメトリック推定が可能になる。
その重要な特徴は "rich-get-richer" プロパティであり、クラスタが人口に線形に依存して選択される事前確率を持つと仮定する。
本稿では,このような先行が必ずしもデータモデリングに最適であるとは限らないことを示す。
我々は,この問題を解決するために,dirichlet-multinomial distributionの修正版から,中国料理店のパワー処理を導出する。
そして、その基本的な性質(クラスタの数、収束など)をいくつか開発します。
この方向の最先端の努力とは異なり、この新しい定式化により、"rich-get-richer" の重要性を直接制御することができる。
関連論文リスト
- Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems [39.58317527488534]
データ駆動型人口レベルの分布は、逆問題における単純なパラメトリック先行よりも魅力的な選択肢として現れている。
これらのモデルをトレーニングするために、基礎となるデータ生成プロセスから独立した、同一に分散されたサンプルを取得することは困難である。
本研究は, 事前分布の不特定から, 更新された分布が, 人口レベルの分布に徐々に近づきつつあることを示す。
論文 参考訳(メタデータ) (2024-07-24T22:39:27Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Common Failure Modes of Subcluster-based Sampling in Dirichlet Process
Gaussian Mixture Models -- and a Deep-learning Solution [5.822529963339041]
Dirichlet Process Gaussian Mixture Model (DPGMM) は、クラスタの数が不明な場合にデータをクラスタリングするのによく用いられる。
1つの主要な DPGMM 推論パラダイムはサンプリングに依存している。
ここでは、既知の最先端のサンプルを考察し、その障害モードを分析し、改善方法を示す。
論文 参考訳(メタデータ) (2022-03-25T14:12:33Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Meta-Learning Conjugate Priors for Few-Shot Bayesian Optimization [0.0]
メタラーニングを用いて情報共役の事前分布の推定を自動化する新しい手法を提案する。
このプロセスから、元のデータ分布の形状パラメータを推定するために、わずかなデータしか必要としない先行データを生成する。
論文 参考訳(メタデータ) (2021-01-03T23:58:32Z) - Improving cluster recovery with feature rescaling factors [2.4366811507669124]
再スケーリング手順は、すべての機能を同一に扱うべきではない、と我々は主張する。
本稿では,各機能のクラスタ内関係を考慮に入れた機能再スケーリング手法を提案する。
提案手法を用いたクラスタリング手法は, 従来のデータ正規化手法よりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-01T13:29:35Z) - Topology-based Clusterwise Regression for User Segmentation and Demand
Forecasting [63.78344280962136]
本研究は,パブリックおよび新規な商用データ集合を用いて,アナリストがユーザベースをクラスタリングし,詳細なレベルで需要を計画できることを示す。
本研究は,TDAに基づく時系列クラスタリングと行列因数分解法によるクラスタ回帰を実践者にとって実行可能なツールとして導入することを目的とする。
論文 参考訳(メタデータ) (2020-09-08T12:10:10Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。