論文の概要: Unsupervised Representation Learning to Aid Semi-Supervised Meta
Learning
- arxiv url: http://arxiv.org/abs/2310.13085v1
- Date: Thu, 19 Oct 2023 18:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:48:04.743225
- Title: Unsupervised Representation Learning to Aid Semi-Supervised Meta
Learning
- Title(参考訳): 半教師付きメタ学習を支援する教師なし表現学習
- Authors: Atik Faysal, Mohammad Rostami, Huaxia Wang, Avimanyu Sahoo, and Ryan
Antle
- Abstract要約: トレーニングサンプルの潜在表現を学習するために,一発の教師なしメタラーニングを提案する。
メタラーニングの内ループでは、温度スケールのクロスエントロピー損失を使用し、オーバーフィッティングを防止する。
提案手法はモデル非依存であり, どんなメタ学習モデルでも精度を向上させることができる。
- 参考スコア(独自算出の注目度): 16.534014215010757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning or meta-learning leverages the data scarcity problem in
machine learning. Traditionally, training data requires a multitude of samples
and labeling for supervised learning. To address this issue, we propose a
one-shot unsupervised meta-learning to learn the latent representation of the
training samples. We use augmented samples as the query set during the training
phase of the unsupervised meta-learning. A temperature-scaled cross-entropy
loss is used in the inner loop of meta-learning to prevent overfitting during
unsupervised learning. The learned parameters from this step are applied to the
targeted supervised meta-learning in a transfer-learning fashion for
initialization and fast adaptation with improved accuracy. The proposed method
is model agnostic and can aid any meta-learning model to improve accuracy. We
use model agnostic meta-learning (MAML) and relation network (RN) on Omniglot
and mini-Imagenet datasets to demonstrate the performance of the proposed
method. Furthermore, a meta-learning model with the proposed initialization can
achieve satisfactory accuracy with significantly fewer training samples.
- Abstract(参考訳): ほとんどショット学習やメタ学習は、機械学習におけるデータ不足の問題を活用する。
伝統的に、トレーニングデータは教師付き学習のために多数のサンプルとラベルを必要とする。
そこで本研究では,学習サンプルの潜在表現を学習するために,一発の教師なしメタラーニングを提案する。
我々は、教師なしメタラーニングのトレーニングフェーズにおいて、拡張サンプルをクエリセットとして使用する。
温度スケールのクロスエントロピー損失は、教師なし学習中の過剰フィッティングを防止するためにメタラーニングの内側ループで使用される。
このステップから学習したパラメータを移動学習方式で教師付きメタラーニングに適用し、初期化と高速適応を精度良く行う。
提案手法はモデル非依存であり,任意のメタ学習モデルの精度向上を支援する。
我々は,Omniglot と mini-Imagenet データセット上のモデル非依存メタラーニング (MAML) と関係ネットワーク (RN) を用いて,提案手法の性能を実証する。
さらに,提案する初期化を伴うメタ学習モデルは,トレーニングサンプルをかなり少なくして,十分な精度を実現することができる。
関連論文リスト
- Learning to Unlearn for Robust Machine Unlearning [6.488418950340473]
学習過程を最適化する新しいLTU(Learning-to-Unlearn)フレームワークを提案する。
LTUは、モデルが一般化可能な知識を効果的に保存することを容易にするメタ最適化スキームを含んでいる。
また、記憶と忘れのための最適化トラジェクトリを整列するグラディエント調和戦略も導入する。
論文 参考訳(メタデータ) (2024-07-15T07:36:00Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [119.70303730341938]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Generating meta-learning tasks to evolve parametric loss for
classification learning [1.1355370218310157]
既存のメタ学習アプローチでは、メタモデルをトレーニングするための学習タスクは通常、公開データセットから収集される。
本稿では,ランダムに生成したメタ学習タスクに基づくメタ学習手法を提案し,ビッグデータに基づく分類学習におけるパラメトリックな損失を求める。
論文 参考訳(メタデータ) (2021-11-20T13:07:55Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - A Primal-Dual Subgradient Approachfor Fair Meta Learning [23.65344558042896]
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
論文 参考訳(メタデータ) (2020-09-26T19:47:38Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。