論文の概要: Leveraging Unlabeled Data to Predict Out-of-Distribution Performance
- arxiv url: http://arxiv.org/abs/2201.04234v1
- Date: Tue, 11 Jan 2022 23:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 21:54:35.651661
- Title: Leveraging Unlabeled Data to Predict Out-of-Distribution Performance
- Title(参考訳): ラベルなしデータを活用して分散性能を予測する
- Authors: Saurabh Garg, Sivaraman Balakrishnan, Zachary C. Lipton, Behnam
Neyshabur, Hanie Sedghi
- Abstract要約: 実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
- 参考スコア(独自算出の注目度): 63.740181251997306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world machine learning deployments are characterized by mismatches
between the source (training) and target (test) distributions that may cause
performance drops. In this work, we investigate methods for predicting the
target domain accuracy using only labeled source data and unlabeled target
data. We propose Average Thresholded Confidence (ATC), a practical method that
learns a threshold on the model's confidence, predicting accuracy as the
fraction of unlabeled examples for which model confidence exceeds that
threshold. ATC outperforms previous methods across several model architectures,
types of distribution shifts (e.g., due to synthetic corruptions, dataset
reproduction, or novel subpopulations), and datasets (Wilds, ImageNet, Breeds,
CIFAR, and MNIST). In our experiments, ATC estimates target performance
$2$-$4\times$ more accurately than prior methods. We also explore the
theoretical foundations of the problem, proving that, in general, identifying
the accuracy is just as hard as identifying the optimal predictor and thus, the
efficacy of any method rests upon (perhaps unstated) assumptions on the nature
of the shift. Finally, analyzing our method on some toy distributions, we
provide insights concerning when it works.
- Abstract(参考訳): 実世界の機械学習のデプロイメントは、パフォーマンス低下を引き起こす可能性のあるソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデル信頼度がしきい値を超える未ラベル例のごく一部として精度を予測し,モデルの信頼度にしきい値を求める実践的手法である平均閾値保持信頼度(ATC)を提案する。
ATCは、いくつかのモデルアーキテクチャ、分散シフトのタイプ(例えば、合成腐敗、データセットの再生、新しいサブポピュレーション)、データセット(Wilds、ImageNet、Breeds、CIFAR、MNIST)において、以前の方法よりも優れていた。
我々の実験では、ATCは目標性能を従来の方法よりも正確に2-4\times$と見積もっている。
また,問題の理論的基礎を探究し,一般には,最適な予測者を特定するのと同じくらい精度の特定が困難であることを示す。
最後に,この手法をおもちゃの分布上で解析し,その動作状況について考察する。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - Unsupervised Accuracy Estimation of Deep Visual Models using
Domain-Adaptive Adversarial Perturbation without Source Samples [1.1852406625172216]
本研究では,未ラベルのターゲットデータに対して,ソースデータにアクセスせずにモデル精度を推定する新しいフレームワークを提案する。
提案手法は,ソース仮説と対象の擬似ラベル関数との相違率を測定する。
提案するソースフリーフレームワークは,分散シフトの困難なシナリオに効果的に対処し,トレーニングにソースデータやラベルを必要とする既存の手法より優れている。
論文 参考訳(メタデータ) (2023-07-19T15:33:11Z) - Predicting Out-of-Distribution Error with Confidence Optimal Transport [17.564313038169434]
そこで本研究では,未知の分布におけるモデルの性能を付加アノテーションなしで予測する簡易かつ効果的な手法を提案する。
提案手法である信頼度最適輸送(COT)は,対象領域におけるモデルの性能を頑健に推定する。
その単純さにもかかわらず,提案手法は3つのベンチマークデータセットに対して最先端の結果を達成し,既存の手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2023-02-10T02:27:13Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。