論文の概要: Covariate Distribution Aware Meta-learning
- arxiv url: http://arxiv.org/abs/2007.02523v3
- Date: Sat, 28 Nov 2020 02:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:25:24.959095
- Title: Covariate Distribution Aware Meta-learning
- Title(参考訳): メタラーニングを意識した共変量分布
- Authors: Amrith Setlur, Saket Dingliwal, Barnabas Poczos
- Abstract要約: 本稿では,有意義な緩和を導入することで,計算可能なメタ学習アルゴリズムを提案する。
一般的な分類ベンチマークに基づいて,ブートストラップによるメタラーニングベースラインに対するアルゴリズムの優位性を実証する。
- 参考スコア(独自算出の注目度): 3.494950334697974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-learning has proven to be successful for few-shot learning across the
regression, classification, and reinforcement learning paradigms. Recent
approaches have adopted Bayesian interpretations to improve gradient-based
meta-learners by quantifying the uncertainty of the post-adaptation estimates.
Most of these works almost completely ignore the latent relationship between
the covariate distribution $(p(x))$ of a task and the corresponding conditional
distribution $p(y|x)$. In this paper, we identify the need to explicitly model
the meta-distribution over the task covariates in a hierarchical Bayesian
framework. We begin by introducing a graphical model that leverages the samples
from the marginal $p(x)$ to better infer the posterior over the optimal
parameters of the conditional distribution $(p(y|x))$ for each task. Based on
this model we propose a computationally feasible meta-learning algorithm by
introducing meaningful relaxations in our final objective. We demonstrate the
gains of our algorithm over initialization based meta-learning baselines on
popular classification benchmarks. Finally, to understand the potential benefit
of modeling task covariates we further evaluate our method on a synthetic
regression dataset.
- Abstract(参考訳): メタ学習は回帰、分類、強化学習のパラダイムを越えて、数ショットの学習で成功している。
近年のアプローチでは、適応後の推定の不確かさを定量化し、勾配に基づくメタラーナーを改善するためにベイズ解釈を採用した。
これらの作業の多くは、タスクの共変量分布 $(p(x))$ と対応する条件分布 $p(y|x)$ との潜在関係をほとんど完全に無視する。
本稿では,階層型ベイズフレームワークにおけるタスク共変量に対するメタ分布を明示的にモデル化する必要性を明らかにする。
まず,各タスクに対する条件分布 $(p(y|x))$ の最適パラメータよりも後方を推定するために,限界値 $p(x)$ のサンプルを活用するグラフィカルモデルを導入する。
このモデルに基づき,最終目的に有意義な緩和を導入することで,計算可能なメタラーニングアルゴリズムを提案する。
一般的な分類ベンチマークに基づいて,初期化に基づくメタラーニングベースラインに対するアルゴリズムの効果を示す。
最後に、タスク共変量のモデル化の潜在的な利点を理解するために、合成回帰データセット上での手法をさらに評価する。
関連論文リスト
- Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Adaptive Meta-learner via Gradient Similarity for Few-shot Text
Classification [11.035878821365149]
本稿では, モデル一般化能力の向上を図るため, 適応型メタラーナをグラディエント類似性(AMGS)を介して提案する。
いくつかのベンチマークによる実験結果から,提案したAMGSは連続的にテキスト分類性能を向上することが示された。
論文 参考訳(メタデータ) (2022-09-10T16:14:53Z) - Bayesian Meta-Learning Through Variational Gaussian Processes [0.0]
ガウス過程に基づくメタラーニングを拡張し、高品質で任意のガウス的でない不確実性予測を可能にする。
提案手法は,既存のベイズメタラーニングベースラインよりも優れている。
論文 参考訳(メタデータ) (2021-10-21T10:44:23Z) - B-SMALL: A Bayesian Neural Network approach to Sparse Model-Agnostic
Meta-Learning [2.9189409618561966]
本稿では,b-smallアルゴリズムと呼ぶベイズ型ニューラルネットワークに基づくmamlアルゴリズムを提案する。
分類タスクと回帰タスクを用いたB-MAMLのパフォーマンスを実証し、MDLを用いたスパーシファイングBNNのトレーニングがモデルのパラメータフットプリントを実際に改善することを強調した。
論文 参考訳(メタデータ) (2021-01-01T09:19:48Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Gradient-EM Bayesian Meta-learning [6.726255259929496]
ベイズメタラーニングの背後にある主要なアイデアは、階層的モデルのベイズ推論を経験的に行うことである。
本研究では、このフレームワークを様々な既存手法に拡張し、勾配-EMアルゴリズムに基づく変種を提案する。
正弦波回帰, 少数ショット画像分類, およびポリシーに基づく強化学習実験により, 本手法は計算コストを抑えて精度を向上するだけでなく, 不確実性に対しても頑健であることが示された。
論文 参考訳(メタデータ) (2020-06-21T10:52:59Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。