論文の概要: Stress Testing of Meta-learning Approaches for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2101.08587v1
- Date: Thu, 21 Jan 2021 13:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:52:32.351660
- Title: Stress Testing of Meta-learning Approaches for Few-shot Learning
- Title(参考訳): ファウショット学習のためのメタラーニングアプローチのストレステスト
- Authors: Aroof Aimen, Sahil Sidheekh, Vineet Madan, Narayanan C. Krishnan
- Abstract要約: メタラーニング(ML)は、マルチショット学習などのリソース制約下で有望な学習方法として登場しました。
タスク複雑性の増大に対して,数ショット学習のためのMLアプローチの性能を測定した。
- 参考スコア(独自算出の注目度): 2.733700237741334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning (ML) has emerged as a promising learning method under resource
constraints such as few-shot learning. ML approaches typically propose a
methodology to learn generalizable models. In this work-in-progress paper, we
put the recent ML approaches to a stress test to discover their limitations.
Precisely, we measure the performance of ML approaches for few-shot learning
against increasing task complexity. Our results show a quick degradation in the
performance of initialization strategies for ML (MAML, TAML, and MetaSGD),
while surprisingly, approaches that use an optimization strategy (MetaLSTM)
perform significantly better. We further demonstrate the effectiveness of an
optimization strategy for ML (MetaLSTM++) trained in a MAML manner over a pure
optimization strategy. Our experiments also show that the optimization
strategies for ML achieve higher transferability from simple to complex tasks.
- Abstract(参考訳): メタラーニング(ml)は,少人数学習などの資源制約下での有望な学習方法として登場した。
MLアプローチは通常、一般化可能なモデルを学ぶための方法論を提案する。
本稿では,最近のmlアプローチをストレステストに適用し,その限界を明らかにする。
より正確には、タスク複雑性の増加に対して、数ショット学習のためのMLアプローチの性能を測定する。
その結果,MLの初期化戦略(MAML,TAML,MetaSGD)の性能は急速に低下した。
さらに,MAML方式で学習したML(MetaLSTM++)の最適化戦略が,純粋最適化戦略よりも有効であることを示す。
また,MLの最適化手法により,単純なタスクから複雑なタスクへの転送性が向上することを示す。
関連論文リスト
- One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Towards Optimal Learning of Language Models [124.65669486710992]
言語モデル(LM)の最適学習の理論を提案する。
我々は、最適学習過程における力学の性質を明らかにするために、学習法則という定理を導出した。
我々は、LMの最適学習が、LMのスケーリング法則における係数の改善に起因することを実証的に検証した。
論文 参考訳(メタデータ) (2024-02-27T18:52:19Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Topology Optimization via Machine Learning and Deep Learning: A Review [4.447467536572626]
トポロジー最適化 (TO) は、設計領域内の与えられた負荷条件と境界条件を満たす最適設計を導出する手法である。
本研究は機械学習に基づくTO(MLTO)に関する過去の研究をレビューし分析する。
論文 参考訳(メタデータ) (2022-10-19T07:47:19Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - B-SMALL: A Bayesian Neural Network approach to Sparse Model-Agnostic
Meta-Learning [2.9189409618561966]
本稿では,b-smallアルゴリズムと呼ぶベイズ型ニューラルネットワークに基づくmamlアルゴリズムを提案する。
分類タスクと回帰タスクを用いたB-MAMLのパフォーマンスを実証し、MDLを用いたスパーシファイングBNNのトレーニングがモデルのパラメータフットプリントを実際に改善することを強調した。
論文 参考訳(メタデータ) (2021-01-01T09:19:48Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - La-MAML: Look-ahead Meta Learning for Continual Learning [14.405620521842621]
オンライン連続学習のための高速最適化に基づくメタ学習アルゴリズムであるLook-ahead MAML(La-MAML)を提案する。
La-MAMLは他のリプレイベース、事前ベース、メタラーニングベースアプローチよりも優れたパフォーマンスを実現し、実世界の視覚分類ベンチマークで連続学習を行う。
論文 参考訳(メタデータ) (2020-07-27T23:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。