論文の概要: Meta-Learned Confidence for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2002.12017v2
- Date: Wed, 24 Jun 2020 14:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:21:34.256341
- Title: Meta-Learned Confidence for Few-shot Learning
- Title(参考訳): ファウショット学習のためのメタラーニング信頼
- Authors: Seong Min Kye, Hae Beom Lee, Hoirin Kim, and Sung Ju Hwang
- Abstract要約: 数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
- 参考スコア(独自算出の注目度): 60.6086305523402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transductive inference is an effective means of tackling the data deficiency
problem in few-shot learning settings. A popular transductive inference
technique for few-shot metric-based approaches, is to update the prototype of
each class with the mean of the most confident query examples, or
confidence-weighted average of all the query samples. However, a caveat here is
that the model confidence may be unreliable, which may lead to incorrect
predictions. To tackle this issue, we propose to meta-learn the confidence for
each query sample, to assign optimal weights to unlabeled queries such that
they improve the model's transductive inference performance on unseen tasks. We
achieve this by meta-learning an input-adaptive distance metric over a task
distribution under various model and data perturbations, which will enforce
consistency on the model predictions under diverse uncertainties for unseen
tasks. Moreover, we additionally suggest a regularization which explicitly
enforces the consistency on the predictions across the different dimensions of
a high-dimensional embedding vector. We validate our few-shot learning model
with meta-learned confidence on four benchmark datasets, on which it largely
outperforms strong recent baselines and obtains new state-of-the-art results.
Further application on semi-supervised few-shot learning tasks also yields
significant performance improvements over the baselines. The source code of our
algorithm is available at https://github.com/seongmin-kye/MCT.
- Abstract(参考訳): トランスダクティブ推論は、数ショットの学習環境でデータ不足問題に取り組む効果的な方法である。
数ショットのメトリックベースのアプローチで一般的なトランスダクティブ推論手法は、最も信頼性の高いクエリ例、あるいはすべてのクエリサンプルの平均で各クラスのプロトタイプを更新することである。
しかし、ここではモデルの信頼性が信頼できない可能性があり、誤った予測につながる可能性がある。
この問題に対処するために,各問合せサンプルに対する信頼度をメタ学習し,ラベルなしの問合せに対して最適な重みを割り当てることを提案する。
我々は,様々なモデルとデータ摂動の下でのタスク分布上の入力適応距離のメタラーニングにより,未知のタスクに対する多様な不確実性の下でモデル予測の一貫性を強制する。
さらに,高次元埋め込みベクトルの異なる次元にわたる予測の一貫性を明示的に強制する正規化も提案する。
4つのベンチマークデータセットにメタ学習の信頼性を持たせながら、我々の少数ショット学習モデルを検証した。
半教師付き数ショット学習タスクへのさらなる適用は、ベースラインよりも大幅なパフォーマンス向上をもたらす。
アルゴリズムのソースコードはhttps://github.com/seongmin-kye/MCT.comで公開されている。
関連論文リスト
- Few-Shot Load Forecasting Under Data Scarcity in Smart Grids: A Meta-Learning Approach [0.18641315013048293]
本稿では,短期負荷予測のためのモデルに依存しないメタ学習アルゴリズムを提案する。
提案手法は,任意の長さの未知の負荷時間列に迅速に適応し,一般化することができる。
提案手法は,実世界の消費者の歴史的負荷消費データのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-09T18:59:08Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Confidence Estimation via Auxiliary Models [47.08749569008467]
モデル信頼のための新しいターゲット基準、すなわち真のクラス確率(TCP)を紹介します。
標準最大クラス確率 (MCP) よりも TCP が信頼度推定に優れた特性を提供することを示す。
論文 参考訳(メタデータ) (2020-12-11T17:21:12Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。