論文の概要: Improving Out-of-Distribution Detection via Dynamic Covariance Calibration
- arxiv url: http://arxiv.org/abs/2506.09399v1
- Date: Wed, 11 Jun 2025 05:05:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.495192
- Title: Improving Out-of-Distribution Detection via Dynamic Covariance Calibration
- Title(参考訳): 動的共分散校正によるアウト・オブ・ディストリビューション検出の改善
- Authors: Kaiyu Guo, Zijian Wang, Brian C. Lovell, Mahsa Baktashmotlagh,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、AIシステムの信頼性に不可欠である。
我々は, 従来の形状を動的に調整することにより, 分散されていない試料の影響を補正することができると論じる。
提案手法は, 各種モデル間のOOD検出を著しく向上させる。
- 参考スコア(独自算出の注目度): 12.516174032672554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-Distribution (OOD) detection is essential for the trustworthiness of AI systems. Methods using prior information (i.e., subspace-based methods) have shown effective performance by extracting information geometry to detect OOD data with a more appropriate distance metric. However, these methods fail to address the geometry distorted by ill-distributed samples, due to the limitation of statically extracting information geometry from the training distribution. In this paper, we argue that the influence of ill-distributed samples can be corrected by dynamically adjusting the prior geometry in response to new data. Based on this insight, we propose a novel approach that dynamically updates the prior covariance matrix using real-time input features, refining its information. Specifically, we reduce the covariance along the direction of real-time input features and constrain adjustments to the residual space, thus preserving essential data characteristics and avoiding effects on unintended directions in the principal space. We evaluate our method on two pre-trained models for the CIFAR dataset and five pre-trained models for ImageNet-1k, including the self-supervised DINO model. Extensive experiments demonstrate that our approach significantly enhances OOD detection across various models. The code is released at https://github.com/workerbcd/ooddcc.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、AIシステムの信頼性に不可欠である。
先行情報(サブスペースに基づく手法)を用いた手法は、より適切な距離距離でOODデータを検出する情報幾何を抽出することにより、効果的な性能を示す。
しかし、これらの手法は、トレーニング分布から静的に情報幾何学を抽出する制限のため、不分散サンプルによって歪んだ幾何に対処できない。
本稿では,新しいデータに応答して事前の幾何を動的に調整することにより,未知の分散サンプルの影響を補正することができると論じる。
この知見に基づいて、リアルタイムな入力機能を用いて事前の共分散行列を動的に更新し、情報を精査する新しい手法を提案する。
具体的には、実時間入力特徴の方向に沿った共分散を低減し、残余空間への制約調整を行い、本質的なデータ特性を保ち、主空間における意図しない方向への影響を避ける。
CIFARデータセットの2つの事前学習モデルと、自己教師型DINOモデルを含むImageNet-1kの5つの事前学習モデルについて評価を行った。
大規模な実験により,本手法は様々なモデルにおけるOOD検出を著しく向上させることが示された。
コードはhttps://github.com/workerbcd/ooddcc.comで公開されている。
関連論文リスト
- RealTraj: Towards Real-World Pedestrian Trajectory Forecasting [10.332817296500533]
本稿では,軌道予測の現実的適用性を高める新しいフレームワークであるRealTrajを提案する。
Det2TrajFormerは、過去の検出を入力として使用することで、ノイズの追跡に不変なモデルである。
従来のトラジェクトリ予測手法とは異なり,本手法は地平線検出のみを用いてモデルを微調整し,コストのかかる人体IDアノテーションの必要性を低減させる。
論文 参考訳(メタデータ) (2024-11-26T12:35:26Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Approximations to the Fisher Information Metric of Deep Generative Models for Out-Of-Distribution Detection [2.3749120526936465]
深層生成モデルは、訓練されたデータよりも高いログ類似度をOODデータに対して常に推測することを示す。
我々は,OODデータに対して,トレーニングデータよりも勾配基準が大きいという単純な直観に基づいて,OOD検出のための深部生成モデルのパラメータに関するデータ点の勾配を利用する。
実験結果から,本手法は,ほとんどの深層生成モデルと画像データセットのペアリングにおいて,典型性試験よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-03-03T11:36:35Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。