論文の概要: Cluster Purging: Efficient Outlier Detection based on Rate-Distortion
Theory
- arxiv url: http://arxiv.org/abs/2302.11234v1
- Date: Wed, 22 Feb 2023 09:32:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:50:49.302896
- Title: Cluster Purging: Efficient Outlier Detection based on Rate-Distortion
Theory
- Title(参考訳): クラスタ取得:レート歪み理論に基づく効率的な外乱検出
- Authors: Maximilian B. Toller and Bernhard C. Geiger and Roman Kern
- Abstract要約: Cluster Purgingは、クラスタリングベースのアウトレイラ検出の拡張である。
本稿では, 生クラスタリングから検出された異常値に対して, クラスタ・パージが改善することを示す。
- 参考スコア(独自算出の注目度): 6.929025509877642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rate-distortion theory-based outlier detection builds upon the rationale that
a good data compression will encode outliers with unique symbols. Based on this
rationale, we propose Cluster Purging, which is an extension of
clustering-based outlier detection. This extension allows one to assess the
representivity of clusterings, and to find data that are best represented by
individual unique clusters. We propose two efficient algorithms for performing
Cluster Purging, one being parameter-free, while the other algorithm has a
parameter that controls representivity estimations, allowing it to be tuned in
supervised setups. In an experimental evaluation, we show that Cluster Purging
improves upon outliers detected from raw clusterings, and that Cluster Purging
competes strongly against state-of-the-art alternatives.
- Abstract(参考訳): 速度歪み理論に基づく外れ値検出は、良いデータ圧縮がユニークなシンボルで外れ値をエンコードするという理論に基づいている。
この理論的根拠に基づき,クラスタリングに基づく外乱検出の拡張であるクラスタ・パージを提案する。
この拡張により、クラスタリングの表現性を評価し、個々のユニークなクラスタで最もよく表現されるデータを見つけることができる。
本稿では,パラメータフリーのクラスタ・パージを行うための2つの効率的なアルゴリズムを提案する。一方のアルゴリズムは,表現率推定を制御するパラメータを持ち,教師付きセットアップで調整することができる。
実験により,クラスタのパーシングは生のクラスタリングから検出された異常値により改善し,クラスタのパーシングは最先端の代替手段と強く競合することを示した。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Robust Consensus Clustering and its Applications for Advertising
Forecasting [18.242055675730253]
我々は,専門家の意見に共通する根拠となる真実を見出すことのできる,ロバストなコンセンサスクラスタリングという新しいアルゴリズムを提案する。
提案手法を実世界の広告キャンペーンセグメンテーションと予測タスクに適用する。
論文 参考訳(メタデータ) (2022-12-27T21:49:04Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。