論文の概要: PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug
andPlay Data Augmentation
- arxiv url: http://arxiv.org/abs/2111.00506v1
- Date: Sun, 31 Oct 2021 14:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 08:07:01.462819
- Title: PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug
andPlay Data Augmentation
- Title(参考訳): PnPOOD : プラグ・アンド・プレイデータによるテキスト分類のためのアウトオフ分布検出
- Authors: Mrinal Rawat, Ramya Hebbalaguppe, Lovekesh Vig
- Abstract要約: ドメイン外サンプル生成によるOOD検出を行うデータ拡張手法であるOODを提案する。
本手法は, クラス境界に近い高品質な識別サンプルを生成し, 精度の高いOOD検出を行う。
我々は、OOD検出に先立つ試みで使用されるデータセットで重要なデータ漏洩問題を強調し、同じ問題に悩まされないOOD検出のための新しいデータセットで結果を共有する。
- 参考スコア(独自算出の注目度): 25.276900899887192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Out-of-distribution (OOD) detection has been well explored in computer
vision, there have been relatively few prior attempts in OOD detection for NLP
classification. In this paper we argue that these prior attempts do not fully
address the OOD problem and may suffer from data leakage and poor calibration
of the resulting models. We present PnPOOD, a data augmentation technique to
perform OOD detection via out-of-domain sample generation using the recently
proposed Plug and Play Language Model (Dathathri et al., 2020). Our method
generates high quality discriminative samples close to the class boundaries,
resulting in accurate OOD detection at test time. We demonstrate that our model
outperforms prior models on OOD sample detection, and exhibits lower
calibration error on the 20 newsgroup text and Stanford Sentiment Treebank
dataset (Lang, 1995; Socheret al., 2013). We further highlight an important
data leakage issue with datasets used in prior attempts at OOD detection, and
share results on a new dataset for OOD detection that does not suffer from the
same problem.
- Abstract(参考訳): Out-of-distriion (OOD) 検出はコンピュータビジョンにおいてよく研究されているが、OOD検出によるNLP分類の試みは比較的少ない。
本稿では,これらの試みはOOD問題を完全に解決するものではなく,データ漏洩やモデルのキャリブレーションに悩まされる可能性があることを論じる。
本稿では,最近提案されたPlug and Play Language Model (Dathathri et al., 2020) を用いて,OOD検出を行うデータ拡張手法であるPnPOODを提案する。
本手法は, クラス境界に近い高品質な識別サンプルを生成し, 精度の高いOOD検出を行う。
本モデルがoodサンプル検出の先行モデルを上回ることを実証し,20のニュースグループテキストとスタンフォード・センチメント・ツリーバンクデータセット (lang, 1995; socheret al., 2013) において,キャリブレーション誤差が低いことを示した。
さらに、OOD検出に先立つ試みで使用されるデータセットによる重要なデータ漏洩問題を強調し、同じ問題に悩まされないOOD検出のための新しいデータセットで結果を共有する。
関連論文リスト
- EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Can Pre-trained Networks Detect Familiar Out-of-Distribution Data? [37.36999826208225]
PT-OODが事前学習ネットワークのOOD検出性能に及ぼす影響について検討した。
特徴空間におけるPT-OODの低線形分離性はPT-OOD検出性能を著しく低下させることがわかった。
本稿では,大規模事前学習モデルに対する一意な解を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:00Z) - In or Out? Fixing ImageNet Out-of-Distribution Detection Evaluation [43.865923770543205]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション・タスクとは無関係な入力を識別する問題である。
現在使用されているテストOODデータセットの大部分は、オープンセット認識(OSR)文学からのデータセットを含む、深刻な問題を抱えている。
我々はNINCOに新しいテストOODデータセットを導入し、各サンプルをIDフリーにチェックし、OOD検出器の強度と障害モードの詳細な分析を可能にする。
論文 参考訳(メタデータ) (2023-06-01T15:48:10Z) - Is Fine-tuning Needed? Pre-trained Language Models Are Near Perfect for
Out-of-Domain Detection [28.810524375810736]
アウト・オブ・ディストリビューション(OOD)検出は、テキスト上の信頼できる予測にとって重要なタスクである。
事前訓練された言語モデルによる微調整は、OOD検出器を導出するための事実上の手順である。
距離に基づく検出手法を用いて、事前学習した言語モデルは、分布シフトがドメイン変更を伴う場合、ほぼ完璧なOOD検出器であることを示す。
論文 参考訳(メタデータ) (2023-05-22T17:42:44Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。