論文の概要: BAMLD: Bayesian Active Meta-Learning by Disagreement
- arxiv url: http://arxiv.org/abs/2110.09943v1
- Date: Tue, 19 Oct 2021 13:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 13:12:16.060054
- Title: BAMLD: Bayesian Active Meta-Learning by Disagreement
- Title(参考訳): bamld: 不一致によるベイズアクティブメタラーニング
- Authors: Ivana Nikoloska and Osvaldo Simeone
- Abstract要約: 本稿では,メタトレーニングタスクのラベル付け要求数を削減するための情報理論アクティブタスク選択機構を提案する。
本稿では,既存の取得メカニズムと比較した実験結果について報告する。
- 参考スコア(独自算出の注目度): 39.59987601426039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-efficient learning algorithms are essential in many practical
applications for which data collection and labeling is expensive or infeasible,
e.g., for autonomous cars. To address this problem, meta-learning infers an
inductive bias from a set of meta-training tasks in order to learn new, but
related, task using a small number of samples. Most studies assume the
meta-learner to have access to labeled data sets from a large number of tasks.
In practice, one may have available only unlabeled data sets from the tasks,
requiring a costly labeling procedure to be carried out before use in standard
meta-learning schemes. To decrease the number of labeling requests for
meta-training tasks, this paper introduces an information-theoretic active task
selection mechanism which quantifies the epistemic uncertainty via
disagreements among the predictions obtained under different inductive biases.
We detail an instantiation for nonparametric methods based on Gaussian Process
Regression, and report its empirical performance results that compare
favourably against existing heuristic acquisition mechanisms.
- Abstract(参考訳): データ効率の良い学習アルゴリズムは、自動運転車など、データ収集やラベリングが高価あるいは実現不可能である多くの実用的なアプリケーションにおいて不可欠である。
この問題に対処するためにメタラーニングは、少数のサンプルを使って新しいが関連するタスクを学ぶために、一連のメタトレーニングタスクから帰納的バイアスを推測する。
ほとんどの研究はメタリーナーが多くのタスクからラベル付きデータセットにアクセスすることを想定している。
実際には、タスクからラベル付きデータセットのみを利用でき、標準のメタラーニングスキームで使用する前にコストのかかるラベル付け手順が必要となる。
本稿では,メタトレーニングタスクのラベリング要求数を減らすために,異なる帰納的バイアス下で得られる予測間の不一致を通じて認識的不確実性を定量化する情報理論的アクティブタスク選択機構を提案する。
ガウス過程回帰に基づく非パラメトリック手法のインスタンス化を詳述し,既存のヒューリスティック獲得機構と比較して好適な評価結果を示す。
関連論文リスト
- An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Self-Supervised Meta-Learning for Few-Shot Natural Language
Classification Tasks [40.97125791174191]
ラベルのないテキストから大規模でリッチなメタ学習タスク分布を生成するための自己教師型手法を提案する。
このメタトレーニングは、言語モデル事前学習の後に微調整を行うよりも、数ショットの一般化に繋がることを示す。
論文 参考訳(メタデータ) (2020-09-17T17:53:59Z) - A Markov Decision Process Approach to Active Meta Learning [24.50189361694407]
教師付き学習では、データが特定のタスクに関連付けられていると仮定して、与えられたデータセットに1つの統計モデルを適用する。
メタラーニングでは、データは多数のタスクと関連付けられており、同時に全てのタスクでうまく機能するモデルを模索する。
論文 参考訳(メタデータ) (2020-09-10T15:45:34Z) - Probabilistic Active Meta-Learning [15.432006404678981]
先行経験に基づくタスク選択をメタ学習アルゴリズムに導入する。
シミュレーションロボット実験の強いベースラインと比較して,本手法がデータ効率を向上させるという実証的証拠を提供する。
論文 参考訳(メタデータ) (2020-07-17T12:51:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Information-Theoretic Generalization Bounds for Meta-Learning and
Applications [42.275148861039895]
メタ学習の主なパフォーマンス指標は、メタ一般化ギャップである。
本稿ではメタ一般化ギャップに関する新しい情報理論上界について述べる。
論文 参考訳(メタデータ) (2020-05-09T05:48:01Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。