論文の概要: Calibrating Tabular Anomaly Detection via Optimal Transport
- arxiv url: http://arxiv.org/abs/2602.06810v1
- Date: Fri, 06 Feb 2026 15:58:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.466132
- Title: Calibrating Tabular Anomaly Detection via Optimal Transport
- Title(参考訳): 最適輸送による口蓋異常検出
- Authors: Hangting Ye, He Zhao. Wei Fan, Xiaozhuang Song, Dandan Guo, Yi Chang, Hongyuan Zha,
- Abstract要約: 我々は,サンプル特異的キャリブレーションにより既存のTAD検出器を増強するモデルに依存しない後処理フレームワークであるCTAD(Calibrating Tabular Anomaly Detection)を提案する。
提案手法は,2つの相補分布,すなわちランダムサンプリングによる経験的分布とK平均セントロイドによる構造的分布を特徴付ける。
本研究は, OT距離が試験試料から遠心点までの距離に比例して低いことを証明し, 予測値よりも系統的に高い校正値が得られたことを証明した。
- 参考スコア(独自算出の注目度): 38.82475750342141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular anomaly detection (TAD) remains challenging due to the heterogeneity of tabular data: features lack natural relationships, vary widely in distribution and scale, and exhibit diverse types. Consequently, each TAD method makes implicit assumptions about anomaly patterns that work well on some datasets but fail on others, and no method consistently outperforms across diverse scenarios. We present CTAD (Calibrating Tabular Anomaly Detection), a model-agnostic post-processing framework that enhances any existing TAD detector through sample-specific calibration. Our approach characterizes normal data via two complementary distributions, i.e., an empirical distribution from random sampling and a structural distribution from K-means centroids, and measures how adding a test sample disrupts their compatibility using Optimal Transport (OT) distance. Normal samples maintain low disruption while anomalies cause high disruption, providing a calibration signal to amplify detection. We prove that OT distance has a lower bound proportional to the test sample's distance from centroids, and establish that anomalies systematically receive higher calibration scores than normals in expectation, explaining why the method generalizes across datasets. Extensive experiments on 34 diverse tabular datasets with 7 representative detectors spanning all major TAD categories (density estimation, classification, reconstruction, and isolation-based methods) demonstrate that CTAD consistently improves performance with statistical significance. Remarkably, CTAD enhances even state-of-the-art deep learning methods and shows robust performance across diverse hyperparameter settings, requiring no additional tuning for practical deployment.
- Abstract(参考訳): タブラル異常検出(TAD: Tabular Anomaly Detection)は、表形式のデータの不均一性により、自然な関係が欠如し、分布や規模が広く変化し、多様な型を示すため、依然として困難である。
したがって、それぞれのTADメソッドは、いくつかのデータセットでうまく機能するが、他のデータセットで失敗する異常パターンについて暗黙の仮定を行う。
我々は,サンプル特異的キャリブレーションにより既存のTAD検出器を増強するモデルに依存しない後処理フレームワークであるCTAD(Calibrating Tabular Anomaly Detection)を提案する。
提案手法は,2つの相補分布,すなわちランダムサンプリングによる経験的分布とK平均セントロイドによる構造的分布を特徴付け,テストサンプルの追加が最適輸送(OT)距離を用いてそれらの互換性を損なうかを測定する。
正常なサンプルは低い破壊を保ち、異常は高い破壊を引き起こし、検出を増幅するための校正信号を提供する。
OT距離は,試験試料の遠心点からの距離に比例して低いことが証明され,予測値よりも系統的に高い校正値が得られたことが確認され,なぜこの手法がデータセット全体にわたって一般化されるのかが説明される。
TADの全カテゴリ(密度推定、分類、再構築、分離に基づく方法)にまたがる7つの代表検出器を持つ34種類の表層データセットの大規模な実験により、CTADは統計的に有意な性能を一貫して向上することが示された。
注目すべきは、CTADは最先端のディープラーニング手法をさらに強化し、多様なハイパーパラメータ設定にわたって堅牢なパフォーマンスを示し、実用的なデプロイメントのために追加のチューニングを必要としないことだ。
関連論文リスト
- Multi-Cue Anomaly Detection and Localization under Data Contamination [0.6703429330486276]
本稿では,適応的偏差学習パラダイムに限定的な異常監視を組み込んだ頑健な異常検出フレームワークを提案する。
本フレームワークは, 各種データ汚染下での強い検出・局所化性能, 解釈可能性, 堅牢性を実現する。
論文 参考訳(メタデータ) (2026-01-30T12:34:13Z) - Correcting False Alarms from Unseen: Adapting Graph Anomaly Detectors at Test Time [60.341117019125214]
グラフ異常検出(GAD)における未確認正規pattErnsの修正のための,軽量かつプラグアンドプレイなテスト時間適応フレームワークを提案する。
意味的混乱に対処するために、シフトしたデータと元のデータとをグラフ属性レベルで整合させるグラフ整合器を用いる。
10個の実世界のデータセットに対する大規模な実験により、TUNEは事前学習されたGADモデルの合成パターンと実際の見えない正常パターンの両方への一般化性を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-11-10T12:10:05Z) - Enhancing Anomaly Detection via Generating Diversified and Hard-to-distinguish Synthetic Anomalies [7.021105583098609]
近年のアプローチでは、通常のサンプルから合成異常を生成するためにドメイン固有の変換や摂動を活用することに重点を置いている。
そこで本研究では,条件付き摂動器と判別器を併用したドメインに依存しない新しい手法を提案する。
我々は,最先端のベンチマークよりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2024-09-16T08:15:23Z) - GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - TabADM: Unsupervised Tabular Anomaly Detection with Diffusion Models [5.314466196448187]
本稿では,非教師付き異常検出に有効な拡散型確率モデルを提案する。
本モデルは, 特異な拒絶手法を用いて, サンプルの密度を学習するよう訓練されている。
低密度領域のサンプルとして異常を同定する。
論文 参考訳(メタデータ) (2023-07-23T14:02:33Z) - Anomaly Detection under Distribution Shift [24.094884041252044]
異常検出(AD)は、通常のトレーニングサンプルのセットからパターンを学習し、テストデータの異常サンプルを特定することを目的とした、重要な機械学習タスクである。
既存のAD研究の多くは、トレーニングデータとテストデータは同一のデータ分布から引き出されると仮定しているが、テストデータは大きな分散シフトを持つ可能性がある。
トレーニングおよび推論段階のOOD標準試料の分布ギャップを最小化することにより, 多様な分布シフトに対する新しいロバストADアプローチを導入する。
論文 参考訳(メタデータ) (2023-03-24T07:39:08Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。