論文の概要: Approximate Inference via Clustering
- arxiv url: http://arxiv.org/abs/2111.14219v1
- Date: Sun, 28 Nov 2021 19:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 15:16:09.124017
- Title: Approximate Inference via Clustering
- Title(参考訳): クラスタリングによる近似推定
- Authors: Qianqian Song
- Abstract要約: ビッグデータの時代では、私たちが直面するデータの量は、それを扱う能力よりもはるかに速く成長しています。
本稿では,この構造を利用してベイズ後部を単純化する。
具体的には,クラスタ化されたデータセットに対する関心を限定し,クラスタリング情報に基づいて近親相性後部を構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, large-scale Bayesian learning draws a great deal of
attention. However, in big-data era, the amount of data we face is growing much
faster than our ability to deal with it. Fortunately, it is observed that
large-scale datasets usually own rich internal structure and is somewhat
redundant. In this paper, we attempt to simplify the Bayesian posterior via
exploiting this structure. Specifically, we restrict our interest to the
so-called well-clustered datasets and construct an \emph{approximate posterior}
according to the clustering information. Fortunately, the clustering structure
can be efficiently obtained via a particular clustering algorithm. When
constructing the approximate posterior, the data points in the same cluster are
all replaced by the centroid of the cluster. As a result, the posterior can be
significantly simplified. Theoretically, we show that under certain conditions
the approximate posterior we construct is close (measured by KL divergence) to
the exact posterior. Furthermore, thorough experiments are conducted to
validate the fact that the constructed posterior is a good approximation to the
true posterior and much easier to sample from.
- Abstract(参考訳): 近年、大規模なベイズ学習が注目されている。
しかし、ビッグデータ時代には、私たちが直面するデータの量は、それを扱う能力よりもずっと速く成長しています。
幸いなことに、大規模なデータセットは通常、豊富な内部構造を持ち、やや冗長である。
本稿では,この構造を利用してベイズ後方の簡易化を試みる。
具体的には、いわゆる well-clustered datasets に関心を限定し、クラスタリング情報に従って \emph{approximate posterior} を構築します。
幸いなことに、クラスタリング構造は特定のクラスタリングアルゴリズムによって効率的に得ることができる。
近似後部を構成する場合、同一クラスタ内のデータポイントはすべて、クラスタのセントロイドに置き換えられる。
その結果、後部は大幅に簡略化される。
理論的には、ある条件下では、構築した近似後部は、正確な後部に近い(KL発散によって測定される)。
さらに, 築造後部が真の後部への良好な近似であり, 採取が容易であることを示すため, 徹底的な実験を行った。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A Restarted Large-Scale Spectral Clustering with Self-Guiding and Block
Diagonal Representation [1.115905690697198]
自己誘導とブロック対角表現を備えた再起動クラスタリングフレームワークを提案する。
この戦略の利点は、以前のサイクルから得られた有用なクラスタリング情報を保存できることである。
スペクトルクラスタリングにおける不正確な計算の合理性を示す理論的結果が確立された。
論文 参考訳(メタデータ) (2023-06-27T01:38:52Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Adaptively-weighted Integral Space for Fast Multiview Clustering [54.177846260063966]
線形複雑度に近い高速マルチビュークラスタリングのための適応重み付き積分空間(AIMC)を提案する。
特に、ビュー生成モデルは、潜在積分空間からのビュー観測を再構成するために設計されている。
いくつかの実世界のデータセットで実施された実験は、提案したAIMC法の優位性を確認した。
論文 参考訳(メタデータ) (2022-08-25T05:47:39Z) - Recovering Unbalanced Communities in the Stochastic Block Model With
Application to Clustering with a Faulty Oracle [9.578056676899203]
オラクルブロックモデル(英: Oracle block model、SBM)は、ネットワークにおけるグラフクラスタリングやコミュニティ検出を研究するための基礎モデルである。
我々は,SBMのコミュニティを様々な大きさのコミュニティで復元する,シンプルなSVDベースのアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-17T08:51:19Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Sum-of-norms clustering does not separate nearby balls [49.1574468325115]
我々は,データセットを一般的な測度に置き換えた,和和クラスタリングの連続的なバージョンを示す。
我々は,離散データポイントの場合においても,新たなクラスタリングの局所的特徴を記述し,証明する。
論文 参考訳(メタデータ) (2021-04-28T13:35:17Z) - Spectral Clustering with Smooth Tiny Clusters [14.483043753721256]
本稿では,データのスムーズさを初めて考慮した新しいクラスタリングアルゴリズムを提案する。
私たちのキーとなるアイデアは、スムーズなグラフを構成する小さなクラスタをクラスタ化することです。
本稿では,マルチスケールな状況に着目するが,データのスムーズさの考え方はどのクラスタリングアルゴリズムにも確実に拡張できる。
論文 参考訳(メタデータ) (2020-09-10T05:21:20Z) - Exact Recovery of Mangled Clusters with Same-Cluster Queries [20.03712152278538]
半教師付きアクティブクラスタリングフレームワークにおけるクラスタリカバリ問題について検討する。
我々は、$n$ポイントを$k$クラスタに分割するアルゴリズムを設計し、$O(k3 ln k ln n)$oracleクエリと$tildeO(kn + k3)$でクラスタを非分類エラーで復元する。
論文 参考訳(メタデータ) (2020-06-08T15:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。