論文の概要: Unsupervised Meta-Learning through Latent-Space Interpolation in
Generative Models
- arxiv url: http://arxiv.org/abs/2006.10236v1
- Date: Thu, 18 Jun 2020 02:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 10:08:16.499048
- Title: Unsupervised Meta-Learning through Latent-Space Interpolation in
Generative Models
- Title(参考訳): 生成モデルにおける潜在空間補間による教師なしメタラーニング
- Authors: Siavash Khodadadeh, Sharare Zehtabian, Saeed Vahidian, Weijia Wang,
Bill Lin and Ladislau B\"ol\"oni
- Abstract要約: 生成モデルを用いてメタタスクを生成する手法について述べる。
提案手法であるLAtent Space Interpolation Unsupervised Meta-learning (LASium)が,現在の教師なし学習ベースラインよりも優れているか,あるいは競合していることがわかった。
- 参考スコア(独自算出の注目度): 11.943374020641214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised meta-learning approaches rely on synthetic meta-tasks that are
created using techniques such as random selection, clustering and/or
augmentation. Unfortunately, clustering and augmentation are domain-dependent,
and thus they require either manual tweaking or expensive learning. In this
work, we describe an approach that generates meta-tasks using generative
models. A critical component is a novel approach of sampling from the latent
space that generates objects grouped into synthetic classes forming the
training and validation data of a meta-task. We find that the proposed
approach, LAtent Space Interpolation Unsupervised Meta-learning (LASIUM),
outperforms or is competitive with current unsupervised learning baselines on
few-shot classification tasks on the most widely used benchmark datasets. In
addition, the approach promises to be applicable without manual tweaking over a
wider range of domains than previous approaches.
- Abstract(参考訳): 教師なしメタラーニングのアプローチは、ランダム選択、クラスタリング、および/または強化といった技術を使って生成される合成メタタスクに依存している。
残念ながら、クラスタリングと拡張はドメインに依存しているので、手作業の微調整や高価な学習が必要になる。
本稿では,生成モデルを用いてメタタスクを生成する手法について述べる。
重要なコンポーネントは、メタタスクのトレーニングと検証データを形成する合成クラスにグループ化されたオブジェクトを生成する潜在空間からサンプリングする新しいアプローチである。
提案手法であるLAtent Space Interpolation Unsupervised Meta-learning (LASium) は,最も広く使用されているベンチマークデータセット上の数ショットの分類タスクにおいて,現在の教師なし学習ベースラインよりも優れているか,あるいは競合的であることがわかった。
さらに、アプローチは以前のアプローチよりも広い範囲のドメインを手動で微調整することなく適用可能であることを約束している。
関連論文リスト
- Meta-Task Prompting Elicits Embedding from Large Language Models [57.50329659098592]
本稿では,新しい教師なし埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを提案する。
モデル微調整やタスク固有のエンジニアリングを必要とせずに、大規模言語モデルから高品質な文の埋め込みを生成する。
実験により, 各種メタタスクから平均化された埋め込みは, セマンティックテキスト類似度ベンチマーク上での競合性能を示すことを示した。
本研究は, 埋込抽出のための多用途, 資源効率のよい手法を提供する, 埋込生成のための新しいスケーリング法則を示唆する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - KOPPA: Improving Prompt-based Continual Learning with Key-Query
Orthogonal Projection and Prototype-based One-Versus-All [26.506535205897443]
本稿では,新しいキークエリ学習戦略を導入し,マッチング効率を向上し,機能変更の課題に対処する。
提案手法は,現在の最先端手法を最大20%の差で超えた結果を達成するためのモデルである。
論文 参考訳(メタデータ) (2023-11-26T20:35:19Z) - Reinforcement Learning Based Multi-modal Feature Fusion Network for
Novel Class Discovery [47.28191501836041]
本稿では,人間の認知過程をシミュレートするために強化学習フレームワークを用いる。
また,マルチモーダル情報から特徴を抽出・融合するマルチエージェントフレームワークをデプロイした。
我々は、OS-MN40、OS-MN40-Miss、Cifar10データセットを用いて、3Dドメインと2Dドメインの両方でのアプローチの性能を示す。
論文 参考訳(メタデータ) (2023-08-26T07:55:32Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Unsupervised Meta-Learning via Few-shot Pseudo-supervised Contrastive
Learning [72.3506897990639]
本稿では,Pseudo-supervised Contrast (PsCo) という,シンプルだが効果的なメタ学習フレームワークを提案する。
PsCoは、さまざまなドメイン内およびクロスドメインのいくつかのショット分類ベンチマークの下で、既存の教師なしメタラーニングメソッドより優れています。
論文 参考訳(メタデータ) (2023-03-02T06:10:13Z) - Meta-Learning via Classifier(-free) Guidance [5.812784742024491]
最先端のメタ学習技術は、目に見えないタスクへのゼロショット適応を最適化しない。
本稿では,自然言語指導によるゼロショット性能向上のためのメタ学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T11:09:35Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.85241791994562]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Double Meta-Learning for Data Efficient Policy Optimization in
Non-Stationary Environments [12.45281856559346]
我々は、マルチタスク学習問題とみなすことができる非定常環境の学習モデルに興味を持っている。
モデルなし強化学習アルゴリズムは、広範囲なサンプリングを犠牲にしてマルチタスク学習において優れた性能を達成することができる。
モデルベースのアプローチは最もデータ効率のよい学習アルゴリズムの1つだが、それでも複雑なタスクやモデルの不確実性に苦慮している。
論文 参考訳(メタデータ) (2020-11-21T03:19:35Z) - Information-Theoretic Generalization Bounds for Meta-Learning and
Applications [42.275148861039895]
メタ学習の主なパフォーマンス指標は、メタ一般化ギャップである。
本稿ではメタ一般化ギャップに関する新しい情報理論上界について述べる。
論文 参考訳(メタデータ) (2020-05-09T05:48:01Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。