論文の概要: Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2009.12196v1
- Date: Thu, 24 Sep 2020 12:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:23:52.638939
- Title: Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection
- Title(参考訳): 分散カーネルの分離:ポイント&グループ異常検出のための新しいツール
- Authors: Kai Ming Ting, Bi-Cun Xu, Takashi Washio and Zhi-Hua Zhou
- Abstract要約: 分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
- 参考スコア(独自算出の注目度): 76.1522587605852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Isolation Distributional Kernel as a new way to measure the
similarity between two distributions. Existing approaches based on kernel mean
embedding, which convert a point kernel to a distributional kernel, have two
key issues: the point kernel employed has a feature map with intractable
dimensionality; and it is {\em data independent}. This paper shows that
Isolation Distributional Kernel (IDK), which is based on a {\em data dependent}
point kernel, addresses both key issues. We demonstrate IDK's efficacy and
efficiency as a new tool for kernel based anomaly detection for both point and
group anomalies. Without explicit learning, using IDK alone outperforms
existing kernel based point anomaly detector OCSVM and other kernel mean
embedding methods that rely on Gaussian kernel. For group anomaly detection,we
introduce an IDK based detector called IDK$^2$. It reformulates the problem of
group anomaly detection in input space into the problem of point anomaly
detection in Hilbert space, without the need for learning. IDK$^2$ runs orders
of magnitude faster than group anomaly detector OCSMM.We reveal for the first
time that an effective kernel based anomaly detector based on kernel mean
embedding must employ a characteristic kernel which is data dependent.
- Abstract(参考訳): 我々は,2つの分布の類似性を測定する新しい方法として,分離分布核を導入する。
既存のカーネル平均埋め込みに基づくアプローチは、ポイントカーネルを分散カーネルに変換するもので、2つの重要な問題がある: ポイントカーネルが採用するポイントカーネルは、難解な次元を持つ特徴写像を持ち、それは、データ独立である。
本稿では,データ依存点カーネルをベースとしたアイソレーション分散カーネル(IDK)が,両重要な問題に対処していることを示す。
点異常と群異常の両方に対するカーネルに基づく異常検出のための新しいツールとして,idkの有効性と効率を示す。
明示的な学習がなければ、IDKだけで既存のカーネルベースのポイント異常検出器OCSVMや、ガウスカーネルに依存する他のカーネルの埋め込みメソッドよりも優れている。
グループ異常検出には、IDK$^2$と呼ばれるIDKベースの検出器を導入する。
入力空間における群異常検出の問題を、学習を必要とせずにヒルベルト空間における点異常検出の問題を再構成する。
IDK$^2$は、グループ異常検出器OCSMMよりも桁違いに高速に動作し、カーネル平均埋め込みに基づく実効カーネルベースの異常検出器は、データに依存する特性カーネルを使用しなければならないことを初めて明らかにする。
関連論文リスト
- Multiple Kernel Clustering via Local Regression Integration [4.856913393644719]
複数のカーネルメソッドは、複数のカーネルデータの固有の多様体構造をあまり考慮しない。
本稿ではまず,カーネル型局所回帰(CKLR)を用いたクラスタリング手法を提案する。
次に、マルチカーネルローカルレグレッション(CMKLR)を介してクラスタリングを行うように拡張する。
論文 参考訳(メタデータ) (2024-10-20T06:26:29Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - The Impact of Isolation Kernel on Agglomerative Hierarchical Clustering
Algorithms [12.363083467305787]
AHC(Agglomerative Hierarchical Clustering)は、一般的なクラスタリング手法の1つである。
距離測定に基づく既存のAHC法では, 密度の異なる隣接クラスタの同定が困難である。
我々は,データ依存カーネル(距離や既存のカーネルではなく)を使用することによって,それに対応する効果的な手段が提供されることを示した。
論文 参考訳(メタデータ) (2020-10-12T06:18:38Z) - Manifold Adaptive Multiple Kernel K-Means for Clustering [5.8671688602326215]
元のカーネルの代わりに、多様体適応カーネルを採用して、カーネルの局所多様体構造を統合する。
提案手法は, 様々なデータセット上で, 最先端のベースライン法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-09-30T02:07:53Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。