論文の概要: Logit Scaling for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2409.01175v1
- Date: Mon, 2 Sep 2024 11:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 07:01:54.893422
- Title: Logit Scaling for Out-of-Distribution Detection
- Title(参考訳): アウト・オブ・ディストリビューション検出のためのログスケーリング
- Authors: Andrija Djurisic, Rosanne Liu, Mladen Nikolic,
- Abstract要約: トレーニングデータ配信へのアクセスを必要としない簡易なポストホック手法を提案する。
当社の方法である Logit Scaling (LTS) は, 物流内分布(ID) と OOD サンプルを効果的に区別する方法でロジットをスケールする。
CIFAR-10, CIFAR-100, ImageNet, OpenOOD など,様々なスケールでベンチマークを行った。
- 参考スコア(独自算出の注目度): 13.017887434494373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The safe deployment of machine learning and AI models in open-world settings hinges critically on the ability to detect out-of-distribution (OOD) data accurately, data samples that contrast vastly from what the model was trained with. Current approaches to OOD detection often require further training the model, and/or statistics about the training data which may no longer be accessible. Additionally, many existing OOD detection methods struggle to maintain performance when transferred across different architectures. Our research tackles these issues by proposing a simple, post-hoc method that does not require access to the training data distribution, keeps a trained network intact, and holds strong performance across a variety of architectures. Our method, Logit Scaling (LTS), as the name suggests, simply scales the logits in a manner that effectively distinguishes between in-distribution (ID) and OOD samples. We tested our method on benchmarks across various scales, including CIFAR-10, CIFAR-100, ImageNet and OpenOOD. The experiments cover 3 ID and 14 OOD datasets, as well as 9 model architectures. Overall, we demonstrate state-of-the-art performance, robustness and adaptability across different architectures, paving the way towards a universally applicable solution for advanced OOD detection.
- Abstract(参考訳): 機械学習とAIモデルのオープンワールド環境への安全なデプロイは、アウト・オブ・ディストリビューション(OOD)データを正確に検出する能力、モデルのトレーニング内容と大きく異なるデータサンプルに重きを置いている。
OOD検出への現在のアプローチは、モデルをさらにトレーニングすることや、もはやアクセスできないかもしれないトレーニングデータに関する統計を必要とすることが多い。
さらに、既存のOOD検出メソッドの多くは、異なるアーキテクチャ間で転送された場合のパフォーマンスを維持するのに苦労している。
我々の研究は、トレーニングデータ配信へのアクセスを必要とせず、トレーニングされたネットワークをそのまま維持し、さまざまなアーキテクチャにわたって強力なパフォーマンスを維持する、シンプルなポストホック手法を提案することで、これらの課題に対処する。
我々の方法である Logit Scaling (LTS) は、その名が示すように、単純にロジットを、分散内(ID) と OOD のサンプルを効果的に区別する方法でスケールする。
CIFAR-10, CIFAR-100, ImageNet, OpenOOD など,様々なスケールでベンチマークを行った。
実験では、3つのIDと14のOODデータセットと9つのモデルアーキテクチャがカバーされた。
全体として、我々は様々なアーキテクチャにおける最先端性能、堅牢性、適応性を実証し、高度なOOD検出のための普遍的なソリューションへの道を開いた。
関連論文リスト
- Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - FlowCon: Out-of-Distribution Detection using Flow-Based Contrastive Learning [0.0]
我々は新しい密度に基づくOOD検出技術であるtextitFlowConを紹介する。
我々の主な革新は、正規化フローの特性と教師付きコントラスト学習を効率的に組み合わせることである。
経験的評価は、一般的な視覚データセットにまたがる手法の性能向上を示す。
論文 参考訳(メタデータ) (2024-07-03T20:33:56Z) - WeiPer: OOD Detection using Weight Perturbations of Class Projections [11.130659240045544]
入力のよりリッチな表現を生成する最終完全連結層にクラスプロジェクションの摂動を導入する。
我々はOpenOODフレームワークの複数のベンチマークで最先端のOOD検出結果を得る。
論文 参考訳(メタデータ) (2024-05-27T13:38:28Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - SIO: Synthetic In-Distribution Data Benefits Out-of-Distribution
Detection [34.97444309333315]
我々は、信頼性の高いアウト・オブ・ディストリビューション(OOD)検出器を構築するためのデータ駆動型アプローチを開発した。
我々は、生成モデルを利用して、内部分布(ID)トレーニングセットを利用して、追加の合成ID画像を生成する。
我々のトレーニングフレームワークは、SIOと呼ばれ、既存のOOD検出アルゴリズムと互換性のある「プラグ・アンド・プレイ」技術として機能します。
論文 参考訳(メタデータ) (2023-03-25T18:34:34Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Igeood: An Information Geometry Approach to Out-of-Distribution
Detection [35.04325145919005]
Igeoodは, オフ・オブ・ディストリビューション(OOD)サンプルを効果的に検出する手法である。
Igeoodは任意のトレーニング済みニューラルネットワークに適用され、機械学習モデルにさまざまなアクセス権を持つ。
Igeoodは、さまざまなネットワークアーキテクチャやデータセットにおいて、競合する最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T11:26:35Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Probabilistic Trust Intervals for Out of Distribution Detection [8.35564578781252]
本稿では,従来のパラメータを変更することなく,事前学習ネットワークにおけるOOD検出を向上する手法を提案する。
提案手法は,各ネットワーク重みに対する確率的信頼区間を定義し,分布内データを用いて決定する。
我々は,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100,CIFAR-10-Cについて検討した。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。