論文の概要: Agreement-on-the-Line: Predicting the Performance of Neural Networks
under Distribution Shift
- arxiv url: http://arxiv.org/abs/2206.13089v1
- Date: Mon, 27 Jun 2022 07:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 01:59:02.256508
- Title: Agreement-on-the-Line: Predicting the Performance of Neural Networks
under Distribution Shift
- Title(参考訳): ライン上のコンセンサス:分散シフトによるニューラルネットワークの性能予測
- Authors: Christina Baek, Yiding Jiang, Aditi Raghunathan, Zico Kolter
- Abstract要約: 類似しているが驚くべき現象が、ニューラルネットワークの分類器のペア間の一致にも現れている。
我々の予測アルゴリズムは、ライン上の合意が保持されるシフトと、ライン上の正確性がない場合の両方において、従来の手法よりも優れています。
- 参考スコア(独自算出の注目度): 18.760716606922482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Miller et al. showed that a model's in-distribution (ID) accuracy
has a strong linear correlation with its out-of-distribution (OOD) accuracy on
several OOD benchmarks -- a phenomenon they dubbed ''accuracy-on-the-line''.
While a useful tool for model selection (i.e., the model most likely to perform
the best OOD is the one with highest ID accuracy), this fact does not help
estimate the actual OOD performance of models without access to a labeled OOD
validation set. In this paper, we show a similar but surprising phenomenon also
holds for the agreement between pairs of neural network classifiers: whenever
accuracy-on-the-line holds, we observe that the OOD agreement between the
predictions of any two pairs of neural networks (with potentially different
architectures) also observes a strong linear correlation with their ID
agreement. Furthermore, we observe that the slope and bias of OOD vs ID
agreement closely matches that of OOD vs ID accuracy. This phenomenon, which we
call agreement-on-the-line, has important practical applications: without any
labeled data, we can predict the OOD accuracy of classifiers}, since OOD
agreement can be estimated with just unlabeled data. Our prediction algorithm
outperforms previous methods both in shifts where agreement-on-the-line holds
and, surprisingly, when accuracy is not on the line. This phenomenon also
provides new insights into deep neural networks: unlike accuracy-on-the-line,
agreement-on-the-line appears to only hold for neural network classifiers.
- Abstract(参考訳): ミラーらは最近、oodベンチマークにおいてモデルの分布内精度 (id) が、その分布外精度 (ood) と強い線形相関を持つことを示した("accuracy-on-the-line")。
モデル選択に有用なツール(つまり、最高のOODを実行する可能性が最も高いモデルは、最高のID精度を持つモデルである)であるが、この事実はラベル付きOOD検証セットにアクセスせずに実際のOOD性能を推定するのに役立ちません。
本稿では,類似するが驚くべき現象として,ニューラルネットワークの分類器のペア間の一致も示している: 精度が維持されるたびに,任意の2組のニューラルネットワーク(潜在的に異なるアーキテクチャを持つ)の予測間のood合意も,そのid合意と強い線形相関を観測する。
さらに,OOD対ID契約の傾きと偏りがOOD対IDの精度と密接に一致していることが観察された。
この現象はアグリーメント・オン・ザ・ラインと呼ばれており、ラベル付きデータがないと、oodアグリーメントはラベル付きデータだけで推定できるため、分類器のood精度を予測することができる。
予測アルゴリズムは,ライン上の一致が保持されるシフトと,精度がライン上でない場合の両方において,従来の手法よりも優れています。
この現象はまた、ディープニューラルネットワークに対する新たな洞察を与えている: 精度のオン・ザ・ラインとは異なり、コンセンサス・オン・ザ・ラインはニューラルネットワーク分類器のみを保持するように見える。
関連論文リスト
- How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Is Fine-tuning Needed? Pre-trained Language Models Are Near Perfect for
Out-of-Domain Detection [28.810524375810736]
アウト・オブ・ディストリビューション(OOD)検出は、テキスト上の信頼できる予測にとって重要なタスクである。
事前訓練された言語モデルによる微調整は、OOD検出器を導出するための事実上の手順である。
距離に基づく検出手法を用いて、事前学習した言語モデルは、分布シフトがドメイン変更を伴う場合、ほぼ完璧なOOD検出器であることを示す。
論文 参考訳(メタデータ) (2023-05-22T17:42:44Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Calibrated ensembles can mitigate accuracy tradeoffs under distribution
shift [108.30303219703845]
ID校正アンサンブルは,IDとOODの精度で,先行技術(自己学習に基づく)より優れていた。
我々は,この手法をスタイリングされた環境で解析し,IDとOODの両方をうまく処理するためのアンサンブルの2つの重要な条件を同定する。
論文 参考訳(メタデータ) (2022-07-18T23:14:44Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。