論文の概要: IDK-S: Incremental Distributional Kernel for Streaming Anomaly Detection
- arxiv url: http://arxiv.org/abs/2512.05531v1
- Date: Fri, 05 Dec 2025 08:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.965662
- Title: IDK-S: Incremental Distributional Kernel for Streaming Anomaly Detection
- Title(参考訳): IDK-S: ストリーム異常検出のためのインクリメンタル分散カーネル
- Authors: Yang Xu, Yixiao Ma, Kaifeng Zhang, Zuliang Yang, Kai Ming Ting,
- Abstract要約: データストリームの異常検出には重大な課題があり、高い検出精度を維持するためにメソッドが必要である。
我々は$mathcalIDK$-$mathcalS$, a novel $mathbfI$ncremental $mathbfD$istributional $mathbfK$ernel for $mathbfS$treaming anomaly detectionを紹介する。
13のベンチマーク実験により、$mathcalIDK$-$mathcalS$は実質的に動作しながら優れた検出精度を実現することが示された。
- 参考スコア(独自算出の注目度): 10.568922713534214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly detection on data streams presents significant challenges, requiring methods to maintain high detection accuracy among evolving distributions while ensuring real-time efficiency. Here we introduce $\mathcal{IDK}$-$\mathcal{S}$, a novel $\mathbf{I}$ncremental $\mathbf{D}$istributional $\mathbf{K}$ernel for $\mathbf{S}$treaming anomaly detection that effectively addresses these challenges by creating a new dynamic representation in the kernel mean embedding framework. The superiority of $\mathcal{IDK}$-$\mathcal{S}$ is attributed to two key innovations. First, it inherits the strengths of the Isolation Distributional Kernel, an offline detector that has demonstrated significant performance advantages over foundational methods like Isolation Forest and Local Outlier Factor due to the use of a data-dependent kernel. Second, it adopts a lightweight incremental update mechanism that significantly reduces computational overhead compared to the naive baseline strategy of performing a full model retraining. This is achieved without compromising detection accuracy, a claim supported by its statistical equivalence to the full retrained model. Our extensive experiments on thirteen benchmarks demonstrate that $\mathcal{IDK}$-$\mathcal{S}$ achieves superior detection accuracy while operating substantially faster, in many cases by an order of magnitude, than existing state-of-the-art methods.
- Abstract(参考訳): データストリーム上の異常検出は、リアルタイム効率を確保しながら、進化するディストリビューション間で高い検出精度を維持する方法を必要とする、重大な課題を示す。
ここでは、$\mathcal{IDK}$-$\mathcal{S}$, a novel $\mathbf{I}$ncremental $\mathbf{D}$istributional $\mathbf{K}$ernel for $\mathbf{S}$treaming anomaly detectionを、カーネルの平均埋め込みフレームワークに新しい動的表現を作成することで、これらの課題に効果的に対応する。
$\mathcal{IDK}$-$\mathcal{S}$の優越性は、2つの重要な革新に起因する。
まず、データ依存カーネルの使用により、分離フォレストやローカルアウトリアファクタといった基本的な手法よりも大きなパフォーマンス上のアドバンテージを示すオフライン検出器であるIsolation Distributional Kernelの強みを継承する。
第二に、軽量なインクリメンタルアップデート機構を採用し、完全なモデル再トレーニングを実行するという単純なベースライン戦略に比べて、計算オーバーヘッドを大幅に削減する。
これは検出精度を損なうことなく達成され、完全再学習モデルに対する統計的等価性によって支持される主張である。
13のベンチマークで行った大規模な実験によると、$\mathcal{IDK}$-$\mathcal{S}$は、既存の最先端手法よりもはるかに高速に動作しながら、優れた検出精度を実現する。
関連論文リスト
- Scalable, Explainable and Provably Robust Anomaly Detection with One-Step Flow Matching [14.503330877000758]
Time-Conditioned Contraction Matching is a novel method for semi-supervised anomaly detection in tabular data。
これは、確率分布間の速度場を学習する最近の生成モデリングフレームワークであるフローマッチングにインスパイアされている。
ADBenchベンチマークの大規模な実験により、TCCMは検出精度と推論コストのバランスが良好であることが示されている。
論文 参考訳(メタデータ) (2025-10-21T06:26:38Z) - Faster Diffusion Models via Higher-Order Approximation [28.824924809206255]
本稿では,d1+2/K varepsilon-1/K $$のスコア関数評価のみを必要とする,原則付き無トレーニングサンプリングアルゴリズムを提案する。
我々の理論はロバストなvis-a-vis不正確なスコア推定であり、スコア推定誤差が増加するにつれて優雅に劣化する。
より広範に、我々は高速サンプリングのための高次手法の有効性を理解するための理論的枠組みを開発した。
論文 参考訳(メタデータ) (2025-06-30T16:49:03Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Improved Convergence Rates for Sparse Approximation Methods in
Kernel-Based Learning [48.08663378234329]
カーネル・リッジ・レグレッションやガウシアン・プロセスのようなカーネル・ベース・モデルは機械学習の応用においてユビキタスである。
既存のスパース近似法は計算コストを大幅に削減することができる。
我々は,Nystr"om法と疎変動ガウス過程近似法に対して,新しい信頼区間を提供する。
論文 参考訳(メタデータ) (2022-02-08T17:22:09Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。