論文の概要: FoMo X: Modular Explainability Signals for Outlier Detection Foundation Models
- arxiv url: http://arxiv.org/abs/2603.17570v1
- Date: Wed, 18 Mar 2026 10:22:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.642377
- Title: FoMo X: Modular Explainability Signals for Outlier Detection Foundation Models
- Title(参考訳): FoMo X:outlier Detection Foundationモデルのためのモジュラー説明可能性信号
- Authors: Simon Klüttermann, Tim Katzke, Phuong Huong Nguyen, Emmanuel Müller,
- Abstract要約: 本稿では,FoMo-Xについて紹介する。FoMo-Xは,Prior-Data Fitted Networksに本質的で軽量な診断機能を提供するモジュールフレームワークである。
FoMo-Xは補助的な診断ヘッドを埋め込みに取り付け、バックボーンの前に同じ生成シミュレータを使ってオフラインでトレーニングする。
私たちは、FoMo-Xを2つの新しいヘッドでインスタンス化する: 解釈可能なリスク層への偏差を識別する重大性ヘッドと、信頼度を提供する不確実性ヘッド。
- 参考スコア(独自算出の注目度): 2.5907878968029285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular foundation models, specifically Prior-Data Fitted Networks (PFNs), have revolutionized outlier detection (OD) by enabling unsupervised zero-shot adaptation to new datasets without training. However, despite their predictive power, these models typically function as opaque black boxes, outputting scalar outlier scores that lack the operational context required for safety-critical decision-making. Existing post-hoc explanation methods are often computationally prohibitive for real-time deployment or fail to capture the epistemic uncertainty inherent in zero-shot inference. In this work, we introduce FoMo-X, a modular framework that equips OD foundation models with intrinsic, lightweight diagnostic capabilities. We leverage the insight that the frozen embeddings of a pretrained PFN backbone already encode rich, context-conditioned relational information. FoMo-X attaches auxiliary diagnostic heads to these embeddings, trained offline using the same generative simulator prior as the backbone. This allows us to distill computationally expensive properties, such as Monte Carlo dropout based epistemic uncertainty, into a deterministic, single-pass inference. We instantiate FoMo-X with two novel heads: a Severity Head that discretizes deviations into interpretable risk tiers, and an Uncertainty Head that provides calibrated confidence measures. Extensive evaluation on synthetic and real-world benchmarks (ADBench) demonstrates that FoMo-X recovers ground-truth diagnostic signals with high fidelity and negligible inference overhead. By bridging the gap between foundation model performance and operational explainability, FoMo-X offers a scalable path toward trustworthy, zero-shot outlier detection.
- Abstract(参考訳): タブラル基礎モデル、特にPFN(Presideed-Data Fitted Networks)は、トレーニングなしで新しいデータセットへの教師なしゼロショット適応を可能にすることによって、外乱検出(OD)に革命をもたらした。
しかし、それらの予測能力にもかかわらず、これらのモデルは一般に不透明なブラックボックスとして機能し、安全クリティカルな意思決定に必要な運用コンテキストを欠いたスカラーのアウトリーチスコアを出力する。
既存のポストホックな説明法は、しばしばリアルタイムな展開のために計算的に禁止されるか、ゼロショット推論に固有のてんかんの不確かさを捉えるのに失敗する。
本稿では,OD基盤モデルに本質的で軽量な診断機能を備えたモジュール型フレームワークであるFoMo-Xを紹介する。
我々は、事前訓練されたPFNバックボーンの凍結埋め込みが、既にリッチでコンテキスト条件付きリレーショナル情報をエンコードしているという知見を活用する。
FoMo-Xはこれらの埋め込みに補助的な診断ヘッドを取り付け、バックボーンと同じ生成シミュレータを使ってオフラインでトレーニングする。
これにより、モンテカルロのドロップアウトに基づくてんかんの不確実性のような計算コストの高い性質を決定論的、単一パス推論に蒸留することができる。
私たちは、FoMo-Xを2つの新しいヘッドでインスタンス化する: 解釈可能なリスク層への偏差を識別する重大度ヘッドと、キャリブレーションされた信頼度対策を提供する不確実性ヘッド。
合成および実世界のベンチマーク(ADBench)の広範囲な評価により、FoMo-Xは高い忠実度と無視できない推論オーバーヘッドで地上の真実の診断信号を回復することを示した。
ファンデーションモデルのパフォーマンスと運用説明可能性のギャップを埋めることによって、FoMo-Xは信頼性の高いゼロショットアウトリア検出へのスケーラブルなパスを提供する。
関連論文リスト
- CUPID: A Plug-in Framework for Joint Aleatoric and Epistemic Uncertainty Estimation with a Single Model [1.6855257501750571]
CUPID (Comprehensive Uncertainty Plug-in estImation moDel) は、ベースモデルの変更や再訓練なしに、動脈とてんかんの不確実性を共同で推定する汎用モジュールである。
CUPIDは分類,回帰,アウト・オブ・ディストリビューション検出など,様々なタスクで評価される。
その結果、CUPIDは、不確実性の起源に関する階層的な洞察を提供しながら、一貫して競争性能を提供することがわかった。
論文 参考訳(メタデータ) (2026-03-11T13:18:10Z) - STAR : Bridging Statistical and Agentic Reasoning for Large Model Performance Prediction [78.0692157478247]
本稿では,知識駆動型エージェント推論を用いて,データ駆動型静的予測を橋渡しするフレームワークSTARを提案する。
STARはスコアベースとランクベースの両方の基準線を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-02-12T16:30:07Z) - Representation-Aware Unlearning via Activation Signatures: From Suppression to Knowledge-Signature Erasure [2.0017902634527194]
本稿では,真の消去と難読化を区別する表現対応アーキテクチャであるKnowledge Immunization Framework(KIF)を紹介する。
提案手法は,主観的表現の動的抑制とパラメータ効率の適応を組み合わせ,完全モデル再学習を伴わない耐久性のある未学習を実現する。
論文 参考訳(メタデータ) (2026-01-15T16:28:14Z) - Trusted Uncertainty in Large Language Models: A Unified Framework for Confidence Calibration and Risk-Controlled Refusal [31.458406135473805]
異種不確実性証拠を正当性の校正確率に変換する統一フレームワークUniCRを提案する。
UniCRは、温度スケーリングと適切なスコアリングを備えた軽量なキャリブレーションヘッドを学習する。
ショートフォームQA、実行テスト付きコード生成、検索強化ロングフォームQAの実験は、キャリブレーションメトリクスの一貫性のある改善を示している。
論文 参考訳(メタデータ) (2025-09-01T13:14:58Z) - Principled Input-Output-Conditioned Post-Hoc Uncertainty Estimation for Regression Networks [1.4671424999873808]
不確実性は安全性に敏感なアプリケーションでは重要であるが、予測性能に悪影響を及ぼすため、市販のニューラルネットワークから排除されることが多い。
本稿では,従来の入力と凍結モデルの両方に補助モデルを適用することにより,回帰タスクにおけるポストホック不確実性推定のための理論的基盤となるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-01T09:13:27Z) - TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。