論文の概要: Topological Structure Learning for Weakly-Supervised Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2209.07837v1
- Date: Fri, 16 Sep 2022 10:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:06:40.394677
- Title: Topological Structure Learning for Weakly-Supervised Out-of-Distribution
Detection
- Title(参考訳): 弱教師付き分散検出のための位相構造学習
- Authors: Rundong He, Rongxue Li, Zhongyi Han, Yilong Yin
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界でモデルを安全にデプロイするための鍵である。
従来のOOD検出法は、IDラベル付きデータの量に大きく依存しているため、もはや優位ではない。
Weakly-Supervised Out-of-Distribution Detection (WSOOD) という新しい設定を提案する。
新しい問題を解決するために,TSL(Topological Structure Learning)と呼ばれる効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 30.483898265474604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is the key to deploying models safely in
the open world. For OOD detection, collecting sufficient in-distribution (ID)
labeled data is usually more time-consuming and costly than unlabeled data.
When ID labeled data is limited, the previous OOD detection methods are no
longer superior due to their high dependence on the amount of ID labeled data.
Based on limited ID labeled data and sufficient unlabeled data, we define a new
setting called Weakly-Supervised Out-of-Distribution Detection (WSOOD). To
solve the new problem, we propose an effective method called Topological
Structure Learning (TSL). Firstly, TSL uses a contrastive learning method to
build the initial topological structure space for ID and OOD data. Secondly,
TSL mines effective topological connections in the initial topological space.
Finally, based on limited ID labeled data and mined topological connections,
TSL reconstructs the topological structure in a new topological space to
increase the separability of ID and OOD instances. Extensive studies on several
representative datasets show that TSL remarkably outperforms the
state-of-the-art, verifying the validity and robustness of our method in the
new setting of WSOOD.
- Abstract(参考訳): out-of-distribution (ood)検出は、オープン世界で安全にモデルをデプロイするための鍵である。
OOD検出では、十分なID(In-distriion)ラベル付きデータの収集は、通常、ラベルなしのデータよりも時間とコストがかかる。
IDラベル付きデータに制限がある場合、従来のOOD検出方法は、IDラベル付きデータの量に大きく依存するため、もはや優位ではない。
限られたIDラベル付きデータと十分なラベルなしデータに基づいて、Weakly-Supervised Out-of-Distribution Detection (WSOOD)と呼ばれる新しい設定を定義する。
そこで本研究では, トポロジカル構造学習(tsl)と呼ばれる効果的な手法を提案する。
第一に、TSLは対照的な学習法を用いて、IDとOODデータのための初期位相構造空間を構築する。
第2に、TSLは初期位相空間における効果的な位相接続を採掘する。
最後に、制限されたIDラベル付きデータと採掘されたトポロジカル接続に基づいて、TSLは新しいトポロジカル空間でトポロジカル構造を再構成し、IDとOODインスタンスの分離性を高める。
いくつかの代表的データセットに対する広範な研究により、TSLは最先端の技術を著しく上回り、WSOODの新たな設定における我々の手法の有効性と堅牢性を検証する。
関連論文リスト
- When and How Does In-Distribution Label Help Out-of-Distribution Detection? [38.874518492468965]
本稿では,OOD検出におけるIDラベルの影響を理論的に説明するための公式な理解を提供する。
我々は,OODデータからのIDデータの分離性について,グラフ理論を用いて厳密に解析する。
我々は、シミュレーションと実データの両方に経験的な結果を示し、理論的保証を検証し、洞察を補強する。
論文 参考訳(メタデータ) (2024-05-28T22:34:53Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Generalized Open-World Semi-Supervised Object Detection [22.058195650206944]
本稿では, アンサンブルをベースとしたOODエクスプローラーと, 適応型半教師付きオブジェクト検出フレームワークを提案する。
提案手法は最先端のOOD検出アルゴリズムと競合し,IDクラスとOODクラスの両方の半教師付き学習性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-07-28T17:59:03Z) - Exploration and Exploitation of Unlabeled Data for Open-Set
Semi-Supervised Learning [130.56124475528475]
半教師付き学習 (SSL) において, 未ラベルデータには, 内分布 (ID) と外分布 (OOD) の両方を含む, オープンセット SSL という複雑なシナリオに対処する。
提案手法は, 未ラベルデータにIDサンプルが完全に欠落している場合でも, 既存のSSL方式を改良する。
論文 参考訳(メタデータ) (2023-06-30T14:25:35Z) - On the Effectiveness of Out-of-Distribution Data in Self-Supervised
Long-Tail Learning [15.276356824489431]
我々は、長期学習(COLT)のためのOODデータを用いたコントラストを提案する。
我々はSSL長期学習におけるOODサンプルの対直感的有用性を実証的に同定した。
提案手法は,長い尾のデータセット上でのSSLの性能を大きなマージンで大幅に向上させる。
論文 参考訳(メタデータ) (2023-06-08T04:32:10Z) - Out-of-Distributed Semantic Pruning for Robust Semi-Supervised Learning [17.409939628100517]
我々は,OODセマンティック・プルーニング(OSP)と呼ばれる統合フレームワークを提案する。
OSPは、ID分類の精度を13.7%、TinyImageNetデータセットのOOD検出のAUROCの5.9%に上回っている。
論文 参考訳(メタデータ) (2023-05-29T15:37:07Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。