論文の概要: Variational Metric Scaling for Metric-Based Meta-Learning
- arxiv url: http://arxiv.org/abs/1912.11809v2
- Date: Wed, 26 Aug 2020 10:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 08:31:52.612911
- Title: Variational Metric Scaling for Metric-Based Meta-Learning
- Title(参考訳): メトリックベースメタラーニングのための変分メトリックスケーリング
- Authors: Jiaxin Chen, Li-Ming Zhan, Xiao-Ming Wu, Fu-lai Chung
- Abstract要約: 我々は,計量に基づくメタラーニングを原型的観点から再放送し,変分的メートル法スケーリングフレームワークを開発する。
提案手法は,事前学習のないエンドツーエンドであり,既存のメートル法に基づくメタアルゴリズムのためのシンプルなプラグイン・アンド・プレイモジュールとして使用できる。
- 参考スコア(独自算出の注目度): 37.392840869320686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric-based meta-learning has attracted a lot of attention due to its
effectiveness and efficiency in few-shot learning. Recent studies show that
metric scaling plays a crucial role in the performance of metric-based
meta-learning algorithms. However, there still lacks a principled method for
learning the metric scaling parameter automatically. In this paper, we recast
metric-based meta-learning from a Bayesian perspective and develop a
variational metric scaling framework for learning a proper metric scaling
parameter. Firstly, we propose a stochastic variational method to learn a
single global scaling parameter. To better fit the embedding space to a given
data distribution, we extend our method to learn a dimensional scaling vector
to transform the embedding space. Furthermore, to learn task-specific
embeddings, we generate task-dependent dimensional scaling vectors with
amortized variational inference. Our method is end-to-end without any
pre-training and can be used as a simple plug-and-play module for existing
metric-based meta-algorithms. Experiments on mini-ImageNet show that our
methods can be used to consistently improve the performance of existing
metric-based meta-algorithms including prototypical networks and TADAM. The
source code can be downloaded from
https://github.com/jiaxinchen666/variational-scaling.
- Abstract(参考訳): 数ショット学習の有効性と効率性から,メトリックベースのメタ学習が注目されている。
近年の研究では、メートル法に基づくメタラーニングアルゴリズムの性能において、メートル法スケーリングが重要な役割を担っていることが示されている。
しかし、メトリックスケーリングパラメータを自動的に学習する原則的な方法がまだ存在しない。
本稿では,ベイズ的視点からメトリックベースのメタラーニングをリキャストし,適切なメトリックスケーリングパラメータを学習するための変分メトリックスケーリングフレームワークを開発する。
まず,単一のグローバルスケーリングパラメータを学習するための確率的変分法を提案する。
埋め込み空間を与えられたデータ分布に適合させるため,次元スケーリングベクトルを学習して埋め込み空間を変換する手法を拡張した。
さらに,タスク固有の埋め込みを学習するために,暗黙の変分推論を伴うタスク依存次元スケーリングベクトルを生成する。
本手法は,事前学習を行わないエンドツーエンドであり,既存のメトリックベースのメタアルゴリズムのための単純なプラグイン・アンド・プレイモジュールとして使用できる。
mini-ImageNetの実験により,本手法は,プロトタイプネットワークやTADMなど,既存のメートル法に基づくメタアルゴリズムの性能向上に一貫した利用が可能であった。
ソースコードはhttps://github.com/jiaxinchen666/variational-scalingからダウンロードできる。
関連論文リスト
- Few-shot Metric Learning: Online Adaptation of Embedding for Retrieval [37.601607544184915]
メトリック学習は、典型的には、類似した物体を近くの点にマッピングする効果的な埋め込み関数を学習することによって距離メトリックを構築することを目的としている。
近年のディープ・メトリック・ラーニングの進歩にもかかわらず、学習されたメートル法が大きな領域ギャップを持つ未確認のクラスに一般化することは依然として困難である。
本稿では,少数の注釈付きデータのみを用いて,組込み関数を対象領域に適応させることを目的とした,数ショットメトリック学習の新たな課題を提案する。
論文 参考訳(メタデータ) (2022-11-14T05:10:17Z) - Learn to Learn Metric Space for Few-Shot Segmentation of 3D Shapes [17.217954254022573]
メタラーニングに基づく3次元形状分割手法を提案する。
本稿では,ShapeNet部データセットにおける提案手法の優れた性能を,既存のベースラインや最先端の半教師手法と比較し,いくつかのシナリオで示す。
論文 参考訳(メタデータ) (2021-07-07T01:47:00Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。