論文の概要: Measures of Overlapping Multivariate Gaussian Clusters in Unsupervised Online Learning
- arxiv url: http://arxiv.org/abs/2508.15444v1
- Date: Thu, 21 Aug 2025 11:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.287601
- Title: Measures of Overlapping Multivariate Gaussian Clusters in Unsupervised Online Learning
- Title(参考訳): 教師なしオンライン学習における多変量ガウスクラスタの重複対策
- Authors: Miha Ožbot, Igor Škrjanc,
- Abstract要約: データストリームからのオンライン学習の目的は、時間とともに適応可能なクラスタリング、分類、回帰モデルを作成することだ。
クラスタリングの場合、多くのクラスタが重複し、マージされる可能性がある。
提案した相似性測定は,相似性ではなく重なりを検出するように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new measure for detecting overlap in multivariate Gaussian clusters. The aim of online learning from data streams is to create clustering, classification, or regression models that can adapt over time based on the conceptual drift of streaming data. In the case of clustering, this can result in a large number of clusters that may overlap and should be merged. Commonly used distribution dissimilarity measures are not adequate for determining overlapping clusters in the context of online learning from streaming data due to their inability to account for all shapes of clusters and their high computational demands. Our proposed dissimilarity measure is specifically designed to detect overlap rather than dissimilarity and can be computed faster compared to existing measures. Our method is several times faster than compared methods and is capable of detecting overlapping clusters while avoiding the merging of orthogonal clusters.
- Abstract(参考訳): 本稿では,多変量ガウスクラスターの重なりを検出するための新しい尺度を提案する。
データストリームからのオンライン学習の目的は、クラスタリング、分類、回帰モデルを作成することである。
クラスタリングの場合、多くのクラスタが重複し、マージされる可能性がある。
一般的な分散の相違は、クラスタのあらゆる形態と高い計算要求を考慮できないため、ストリーミングデータからオンライン学習の文脈で重なり合うクラスタを決定するには不十分である。
提案手法は,相似性よりも重なりを検出するように設計されており,既存の測度よりも高速に計算できる。
提案手法は比較手法よりも数倍高速で,直交クラスタのマージを回避しつつ重なり合うクラスタを検出することができる。
関連論文リスト
- Towards Learnable Anchor for Deep Multi-View Clustering [49.767879678193005]
本稿では,線形時間でクラスタリングを行うDeep Multi-view Anchor Clustering (DMAC)モデルを提案する。
最適なアンカーを用いて、全サンプルグラフを計算し、クラスタリングのための識別的埋め込みを導出する。
いくつかのデータセットの実験では、最先端の競合に比べてDMACの性能と効率が優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-16T09:38:11Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Dynamic Clustering in Federated Learning [15.37652170495055]
本稿では,生成型逆ネットワーク型クラスタリング,クラスタキャリブレーション,クラスタ分割という3相データクラスタリングアルゴリズムを提案する。
提案アルゴリズムは,セルラーネットワークハンドオーバを含む予測モデルの性能を43%向上させる。
論文 参考訳(メタデータ) (2020-12-07T15:30:07Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。