論文の概要: Support-Target Protocol for Meta-Learning
- arxiv url: http://arxiv.org/abs/2104.03736v1
- Date: Thu, 8 Apr 2021 12:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 20:21:27.578908
- Title: Support-Target Protocol for Meta-Learning
- Title(参考訳): メタ学習支援プロトコル
- Authors: Su Lu, Han-Jia Ye, De-Chuan Zhan
- Abstract要約: 本稿ではメタラーニングのための新しいS/Tプロトコルを提案する。
タスク固有のモデルをTにマッチさせる方法を決定する。
代案として,グローバルな事前学習型メタモデルを用いた局所タスクの微調整により,サロゲートターゲットモデルを構築する。
- 参考スコア(独自算出の注目度): 31.834843714684343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The support/query (S/Q) training protocol is widely used in meta-learning.
S/Q protocol trains a task-specific model on S and then evaluates it on Q to
optimize the meta-model using query loss, which depends on size and quality of
Q. In this paper, we study a new S/T protocol for meta-learning. Assuming that
we have access to the theoretically optimal model T for a task, we can directly
match the task-specific model trained on S to T. S/T protocol offers a more
accurate evaluation since it does not rely on possibly biased and noisy query
instances. There are two challenges in putting S/T protocol into practice.
Firstly, we have to determine how to match the task-specific model to T. To
this end, we minimize the discrepancy between them on a fictitious dataset
generated by adversarial learning, and distill the prediction ability of T to
the task-specific model. Secondly, we usually do not have ready-made optimal
models. As an alternative, we construct surrogate target models by fine-tuning
on local tasks the globally pre-trained meta-model, maintaining both efficiency
and veracity.
- Abstract(参考訳): サポート/クエリ(S/Q)トレーニングプロトコルはメタラーニングで広く使われている。
S/Qプロトコルは、タスク固有のモデルをSでトレーニングし、Qで評価し、Qのサイズと品質に依存するクエリ損失を使用してメタモデルを最適化する。
本稿ではメタラーニングのための新しいS/Tプロトコルを提案する。
タスクに対して理論的に最適なモデルTにアクセスできると仮定すると、Sで訓練されたタスク固有モデルとT/Tプロトコルを直接一致させることができる。
S/Tプロトコルの実践には2つの課題がある。
まず、タスク固有のモデルをTにマッチさせる方法を決定する必要がある。この目的のために、敵の学習によって生成された架空のデータセット上でのタスク固有のモデル間の差を最小限に抑え、タスク固有のモデルにTの予測能力を蒸留する。
第二に、私たちは通常、準備が整った最適モデルを持っていません。
代替として,グローバルに事前訓練されたメタモデルである局所タスクを微調整し,効率性と妥当性を両立させることにより,サロゲートターゲットモデルを構築する。
関連論文リスト
- TaskMet: Task-Driven Metric Learning for Model Learning [29.0053868393653]
ディープラーニングモデルは、トレーニング手順が認識していない可能性のある下流タスクにデプロイされることが多い。
本稿では,モデルのパラメータよりも1段階深いタスク損失信号を用いて,モデルがトレーニングした損失関数のパラメータを学習する。
このアプローチは、最適な予測モデル自体を変更するのではなく、下流のタスクにとって重要な情報を強調するためにモデル学習を変更する。
論文 参考訳(メタデータ) (2023-12-08T18:59:03Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - $\Delta$-Patching: A Framework for Rapid Adaptation of Pre-trained
Convolutional Networks without Base Performance Loss [71.46601663956521]
大規模なデータセットで事前トレーニングされたモデルはしばしば、時間とともにやってくる新しいタスクやデータセットをサポートするように微調整される。
モデルコピーを格納することなく、効率よく微調整ニューラルネットワークモデルに$Delta$-Patchingを提案する。
我々の実験によると、$Delta$-Networksは、トレーニングされるパラメータのごく一部しか必要とせず、初期のモデルパッチ作業より優れています。
論文 参考訳(メタデータ) (2023-03-26T16:39:44Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Meta-learning with an Adaptive Task Scheduler [93.63502984214918]
既存のメタ学習アルゴリズムは、一様確率でランダムにメタトレーニングタスクをサンプリングする。
タスクは、限られた数のメタトレーニングタスクを考えると、ノイズや不均衡に有害である可能性が高い。
メタトレーニングプロセスのための適応タスクスケジューラ(ATS)を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:16:35Z) - MT3: Meta Test-Time Training for Self-Supervised Test-Time Adaption [69.76837484008033]
ディープラーニングの未解決の問題は、ニューラルネットワークがテスト時間中のドメインシフトに対処する能力である。
メタラーニング、自己監督、テストタイムトレーニングを組み合わせて、目に見えないテスト分布に適応する方法を学びます。
この手法はcifar-10による画像分類ベンチマークの最先端結果を大幅に改善する。
論文 参考訳(メタデータ) (2021-03-30T09:33:38Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Conditionally Adaptive Multi-Task Learning: Improving Transfer Learning
in NLP Using Fewer Parameters & Less Data [5.689320790746046]
マルチタスク学習(MTL)ネットワークは、異なるタスク間で学習知識を伝達するための有望な方法として登場した。
しかし、MTLは、低リソースタスクへの過度な適合、破滅的な忘れ込み、負のタスク転送といった課題に対処しなければならない。
本稿では,新しい条件付アテンション機構とタスク条件付きモジュール群からなるトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-19T02:04:34Z) - Conditional Channel Gated Networks for Task-Aware Continual Learning [44.894710899300435]
畳み込みニューラルネットワークは、一連の学習問題に最適化された場合、破滅的な忘れを経験する。
本稿では,この問題に条件付き計算で対処する新しい枠組みを提案する。
提案手法を4つの連続学習データセットで検証する。
論文 参考訳(メタデータ) (2020-03-31T19:35:07Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。