論文の概要: From Zero to Hero: Advancing Zero-Shot Foundation Models for Tabular Outlier Detection
- arxiv url: http://arxiv.org/abs/2602.03018v1
- Date: Tue, 03 Feb 2026 02:38:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.198025
- Title: From Zero to Hero: Advancing Zero-Shot Foundation Models for Tabular Outlier Detection
- Title(参考訳): ZeroからHeroへ: タブラル外乱検出のためのゼロショット基礎モデルの改善
- Authors: Xueying Ding, Haomin Wen, Simon Klütterman, Leman Akoglu,
- Abstract要約: 外乱検出(OD)は、実際には広く使われているが、その効果的な展開は、ラベル付き外乱検出の欠如によって妨げられている。
この研究は、FoMo-0Dを合成前科と自己進化型カリキュラムの混合で進化させるOUTFORMERを導入している。
OUTFORMERは、合成ラベル付きデータセットのみに事前トレーニングされ、トレーニングデータをコンテキスト内入力として使用することにより、新しいタスクのテストラベルを推論する。
- 参考スコア(独自算出の注目度): 25.858697417128056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outlier detection (OD) is widely used in practice; but its effective deployment on new tasks is hindered by lack of labeled outliers, which makes algorithm and hyperparameter selection notoriously hard. Foundation models (FMs) have transformed ML, and OD is no exception: Shen et. al. (2025) introduced FoMo-0D, the first FM for OD, achieving remarkable performance against numerous baselines. This work introduces OUTFORMER, which advances FoMo-0D with (1) a mixture of synthetic priors and (2) self-evolving curriculum training. OUTFORMER is pretrained solely on synthetic labeled datasets and infers test labels of a new task by using its training data as in-context input. Inference is fast and zero-shot, requiring merely forward pass and no labeled outliers. Thanks to in-context learning, it requires zero additional work-no OD model training or bespoke model selection-enabling truly plug-and-play deployment. OUTFORMER achieves state-of-the-art performance on the prominent AdBench, as well as two new large-scale OD benchmarks that we introduce, comprising over 1,500 datasets, while maintaining speedy inference.
- Abstract(参考訳): 外乱検出(OD)は実際に広く使われているが、新しいタスクへの効果的な展開はラベル付き外乱検出の欠如によって妨げられ、アルゴリズムとハイパーパラメータの選択が難しいことが知られている。
Shen et al (2025)は、ODの最初のFMであるFoMo-0Dを導入し、多数のベースラインに対して優れたパフォーマンスを実現した。
本研究は, (1) 合成前駆体と(2) 自己進化型カリキュラムの混合によるFoMo-0Dの進歩であるOUTFORMERを紹介する。
OUTFORMERは、合成ラベル付きデータセットのみに事前トレーニングされ、トレーニングデータをコンテキスト内入力として使用することにより、新しいタスクのテストラベルを推論する。
推論は高速でゼロショットであり、単にフォワードパスとラベル付き外れ値を必要としない。
コンテキスト内学習のおかげで、追加の作業不要のODモデルトレーニングや、真にプラグイン・アンド・プレイデプロイメントを起動するBespokeモデル選択が必要になります。
OUTFORMERは、AdBenchの最先端性能と、1500以上のデータセットを含む2つの新しい大規模ODベンチマークを実現し、高速な推論を維持している。
関連論文リスト
- Diffusion Language Models are Super Data Learners [61.721441061210896]
ユニークなデータが限られている場合、拡散言語モデル(DLM)は、よりエポックなトレーニングによって、常に自己回帰モデル(AR)を上回ります。
本研究の目的は,(1) 任意の次数モデリング,(2) 反復的双方向 denoising からの超高次計算,(3) モンテカルロ増分という3つの複合的要因に起因する。
論文 参考訳(メタデータ) (2025-11-05T08:17:42Z) - Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning [21.70706473875226]
本稿では,2段階のフレームワークであるReinforcement Distillation (REDI)を提案する。
Supervised Fine-Tuning (SFT) による正のトレースから学ぶステージ1
ステージ2は、提案したREDI目標を通じて、正と負の両方のトレースを用いてモデルをさらに洗練する。
DPO/SimPOを併用したベースラインリジェクションサンプリングSFTやSFTよりもREDIが優れていることを示す実験的検討を行った。
論文 参考訳(メタデータ) (2025-05-30T17:47:17Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - FoMo-0D: A Foundation Model for Zero-shot Tabular Outlier Detection [24.40438381282677]
FoMo-0Dは、表データの0/0ショットODのための事前訓練されたファンデーションモデルである。
パラメータを微調整することなく、テストサンプルの(より低い/より低い)ラベルを直接予測できる。
57の実世界のデータセットに対する実験は、FoMo-0Dが非常に競争力があることを示している。
論文 参考訳(メタデータ) (2024-09-09T14:41:24Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [117.48444197402858]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。