論文の概要: Topological Structure Learning for Weakly-Supervised Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2209.07837v1
- Date: Fri, 16 Sep 2022 10:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:06:40.394677
- Title: Topological Structure Learning for Weakly-Supervised Out-of-Distribution
Detection
- Title(参考訳): 弱教師付き分散検出のための位相構造学習
- Authors: Rundong He, Rongxue Li, Zhongyi Han, Yilong Yin
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界でモデルを安全にデプロイするための鍵である。
従来のOOD検出法は、IDラベル付きデータの量に大きく依存しているため、もはや優位ではない。
Weakly-Supervised Out-of-Distribution Detection (WSOOD) という新しい設定を提案する。
新しい問題を解決するために,TSL(Topological Structure Learning)と呼ばれる効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 30.483898265474604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is the key to deploying models safely in
the open world. For OOD detection, collecting sufficient in-distribution (ID)
labeled data is usually more time-consuming and costly than unlabeled data.
When ID labeled data is limited, the previous OOD detection methods are no
longer superior due to their high dependence on the amount of ID labeled data.
Based on limited ID labeled data and sufficient unlabeled data, we define a new
setting called Weakly-Supervised Out-of-Distribution Detection (WSOOD). To
solve the new problem, we propose an effective method called Topological
Structure Learning (TSL). Firstly, TSL uses a contrastive learning method to
build the initial topological structure space for ID and OOD data. Secondly,
TSL mines effective topological connections in the initial topological space.
Finally, based on limited ID labeled data and mined topological connections,
TSL reconstructs the topological structure in a new topological space to
increase the separability of ID and OOD instances. Extensive studies on several
representative datasets show that TSL remarkably outperforms the
state-of-the-art, verifying the validity and robustness of our method in the
new setting of WSOOD.
- Abstract(参考訳): out-of-distribution (ood)検出は、オープン世界で安全にモデルをデプロイするための鍵である。
OOD検出では、十分なID(In-distriion)ラベル付きデータの収集は、通常、ラベルなしのデータよりも時間とコストがかかる。
IDラベル付きデータに制限がある場合、従来のOOD検出方法は、IDラベル付きデータの量に大きく依存するため、もはや優位ではない。
限られたIDラベル付きデータと十分なラベルなしデータに基づいて、Weakly-Supervised Out-of-Distribution Detection (WSOOD)と呼ばれる新しい設定を定義する。
そこで本研究では, トポロジカル構造学習(tsl)と呼ばれる効果的な手法を提案する。
第一に、TSLは対照的な学習法を用いて、IDとOODデータのための初期位相構造空間を構築する。
第2に、TSLは初期位相空間における効果的な位相接続を採掘する。
最後に、制限されたIDラベル付きデータと採掘されたトポロジカル接続に基づいて、TSLは新しいトポロジカル空間でトポロジカル構造を再構成し、IDとOODインスタンスの分離性を高める。
いくつかの代表的データセットに対する広範な研究により、TSLは最先端の技術を著しく上回り、WSOODの新たな設定における我々の手法の有効性と堅牢性を検証する。
関連論文リスト
- EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [49.974181775894536]
アウト・オブ・ディストリビューション(OOD)検出法は、OODサンプルを識別するモデルを訓練するために補助的なアウトレーヤを利用することが多い。
我々は,IDサンプルの近傍空間からCLIPを用いて,IDのような外れ値を検出する新しいOOD検出フレームワークを提案する。
OOD検出のためのCLIPの機能をさらに活用するために、識別されたIDライクなアウトレイラを利用した即時学習フレームワークが提案されている。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Exploration and Exploitation of Unlabeled Data for Open-Set
Semi-Supervised Learning [130.56124475528475]
半教師付き学習 (SSL) において, 未ラベルデータには, 内分布 (ID) と外分布 (OOD) の両方を含む, オープンセット SSL という複雑なシナリオに対処する。
提案手法は, 未ラベルデータにIDサンプルが完全に欠落している場合でも, 既存のSSL方式を改良する。
論文 参考訳(メタデータ) (2023-06-30T14:25:35Z) - On the Effectiveness of Out-of-Distribution Data in Self-Supervised
Long-Tail Learning [15.276356824489431]
我々は、長期学習(COLT)のためのOODデータを用いたコントラストを提案する。
我々はSSL長期学習におけるOODサンプルの対直感的有用性を実証的に同定した。
提案手法は,長い尾のデータセット上でのSSLの性能を大きなマージンで大幅に向上させる。
論文 参考訳(メタデータ) (2023-06-08T04:32:10Z) - Out-of-Distributed Semantic Pruning for Robust Semi-Supervised Learning [17.409939628100517]
我々は,OODセマンティック・プルーニング(OSP)と呼ばれる統合フレームワークを提案する。
OSPは、ID分類の精度を13.7%、TinyImageNetデータセットのOOD検出のAUROCの5.9%に上回っている。
論文 参考訳(メタデータ) (2023-05-29T15:37:07Z) - No Shifted Augmentations (NSA): compact distributions for robust
self-supervised Anomaly Detection [4.243926243206826]
教師なし異常検出(AD)は正規化の概念を構築し、分布内(ID)と分布外(OOD)データを区別する必要がある。
我々は,ID特徴分布のエンフ幾何学的コンパクト性によって,外乱の分離や検出が容易になるかを検討する。
我々は,IDデータのコンパクトな分布を学習可能にする自己教師型特徴学習ステップに,新たなアーキテクチャ変更を提案する。
論文 参考訳(メタデータ) (2022-03-19T15:55:32Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。