論文の概要: Pseudo Outlier Exposure for Out-of-Distribution Detection using
Pretrained Transformers
- arxiv url: http://arxiv.org/abs/2307.09455v2
- Date: Wed, 19 Jul 2023 04:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 10:58:30.422403
- Title: Pseudo Outlier Exposure for Out-of-Distribution Detection using
Pretrained Transformers
- Title(参考訳): 予習変圧器を用いた外分布検出のための擬似外乱露光
- Authors: Jaeyoung Kim, Kyuheon Jung, Dongbin Na, Sion Jang, Eunbin Park,
Sungchul Choi
- Abstract要約: 拒否ネットワークは、テストOODサンプルを検出するために、IDと多様な外れ値サンプルで訓練することができる。
本稿では,Pseudo Outlier Exposure (POE) と呼ばれる手法を提案する。
本手法は外部OODデータを一切必要とせず,既製のトランスフォーマーで容易に実装できる。
- 参考スコア(独自算出の注目度): 3.8839179829686126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For real-world language applications, detecting an out-of-distribution (OOD)
sample is helpful to alert users or reject such unreliable samples. However,
modern over-parameterized language models often produce overconfident
predictions for both in-distribution (ID) and OOD samples. In particular,
language models suffer from OOD samples with a similar semantic representation
to ID samples since these OOD samples lie near the ID manifold. A rejection
network can be trained with ID and diverse outlier samples to detect test OOD
samples, but explicitly collecting auxiliary OOD datasets brings an additional
burden for data collection. In this paper, we propose a simple but effective
method called Pseudo Outlier Exposure (POE) that constructs a surrogate OOD
dataset by sequentially masking tokens related to ID classes. The surrogate OOD
sample introduced by POE shows a similar representation to ID data, which is
most effective in training a rejection network. Our method does not require any
external OOD data and can be easily implemented within off-the-shelf
Transformers. A comprehensive comparison with state-of-the-art algorithms
demonstrates POE's competitiveness on several text classification benchmarks.
- Abstract(参考訳): 現実世界の言語アプリケーションでは、out-of-distribution(ood)サンプルの検出は、ユーザに警告したり、そのような信頼できないサンプルを拒否するのに役立つ。
しかし、現代の過剰パラメータ言語モデルは、しばしば、in-distribution (id) と ood のサンプルの両方に対して自信過剰な予測を生成する。
特に、言語モデルは、これらのOODサンプルがID多様体の近くにあるため、IDサンプルに類似した意味表現を持つOODサンプルに悩まされる。
テストOODサンプルを検出するために、IDと多様な外れ値サンプルでリジェクションネットワークをトレーニングすることができるが、補助的なOODデータセットを明示的に収集することは、データ収集にさらなる負担をもたらす。
本稿では,idクラスに関連するトークンを順次マスキングすることにより,サブロゲートなoodデータセットを構築するための,簡易かつ効果的な手法であるpseudo outlier exposure (poe)を提案する。
POE が導入したシュロゲート OOD サンプルは ID データに類似した表現を示しており,拒否ネットワークのトレーニングに最も有効である。
本手法は外部OODデータを一切必要とせず,既製のトランスフォーマーで容易に実装できる。
最先端アルゴリズムとの包括的な比較は、いくつかのテキスト分類ベンチマークにおけるPOEの競争力を示している。
関連論文リスト
- ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [49.974181775894536]
アウト・オブ・ディストリビューション(OOD)検出法は、OODサンプルを識別するモデルを訓練するために補助的なアウトレーヤを利用することが多い。
我々は,IDサンプルの近傍空間からCLIPを用いて,IDのような外れ値を検出する新しいOOD検出フレームワークを提案する。
OOD検出のためのCLIPの機能をさらに活用するために、識別されたIDライクなアウトレイラを利用した即時学習フレームワークが提案されている。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Exploration and Exploitation of Unlabeled Data for Open-Set
Semi-Supervised Learning [130.56124475528475]
半教師付き学習 (SSL) において, 未ラベルデータには, 内分布 (ID) と外分布 (OOD) の両方を含む, オープンセット SSL という複雑なシナリオに対処する。
提案手法は, 未ラベルデータにIDサンプルが完全に欠落している場合でも, 既存のSSL方式を改良する。
論文 参考訳(メタデータ) (2023-06-30T14:25:35Z) - Supervision Adaptation Balancing In-distribution Generalization and
Out-of-distribution Detection [36.66825830101456]
In-distribution (ID) と Out-of-distribution (OOD) のサンプルは、ディープニューラルネットワークにおけるtextitdistributionalな脆弱性を引き起こす可能性がある。
我々は,OODサンプルに対する適応的な監視情報を生成するために,新しいテクスツパービジョン適応手法を導入し,IDサンプルとの互換性を高めた。
論文 参考訳(メタデータ) (2022-06-19T11:16:44Z) - Understanding, Detecting, and Separating Out-of-Distribution Samples and
Adversarial Samples in Text Classification [80.81532239566992]
本稿では,2種類の異常 (OOD と Adv のサンプル) と,3つの側面の内分布 (ID) を比較した。
OODサンプルは第1層から始まる収差を露呈するが,Advサンプルの異常はモデル深層まで出現しない。
隠れ表現と出力確率を用いて,ID,OOD,Advのサンプルを分離する簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T12:11:59Z) - Energy-bounded Learning for Robust Models of Code [16.592638312365164]
プログラミングでは、コード表現の学習には、コード分類、コード検索、コメント生成、バグ予測など、さまざまなアプリケーションがある。
本稿では,ソースコードモデルのトレーニングプロセスにこれらのアウト・オブ・ディストリビューション・サンプルを組み込むため,エネルギー境界学習目標関数を用いて,イン・ディストリビューション・サンプルにより高いスコアを割り当て,アウト・オブ・ディストリビューション・サンプルに低いスコアを割り当てることを提案する。
論文 参考訳(メタデータ) (2021-12-20T06:28:56Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Bridging In- and Out-of-distribution Samples for Their Better
Discriminability [18.84265231678354]
2つの中間に位置するサンプルを考慮し、それらをネットワークのトレーニングに使用する。
我々は複数の画像変換を用いて、様々な方法で入力を破損させ、重大度レベルが異なるようなサンプルを生成する。
クリーンなIDサンプルをトレーニングしたネットワークを用いて,単一の画像変換によって生成されたサンプルが,IDとOODの間にどこにあるかを推定する。
論文 参考訳(メタデータ) (2021-01-07T11:34:18Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。