論文の概要: Laplacian Regularized Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2006.15486v3
- Date: Wed, 28 Apr 2021 15:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 01:57:25.220312
- Title: Laplacian Regularized Few-Shot Learning
- Title(参考訳): Laplacian Regularized Few-Shot Learning
- Authors: Imtiaz Masud Ziko, Jose Dolz, Eric Granger and Ismail Ben Ayed
- Abstract要約: 少数ショットタスクに対するラプラシアン正規化推論を提案する。
私たちの推論はベースモデルを再トレーニングするものではなく、クエリセットのグラフクラスタリングとして見ることができます。
我々のLaplacianShotは、異なるモデル間で大きなマージンで最先端の手法を一貫して上回ります。
- 参考スコア(独自算出の注目度): 35.381119443377195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a transductive Laplacian-regularized inference for few-shot tasks.
Given any feature embedding learned from the base classes, we minimize a
quadratic binary-assignment function containing two terms: (1) a unary term
assigning query samples to the nearest class prototype, and (2) a pairwise
Laplacian term encouraging nearby query samples to have consistent label
assignments. Our transductive inference does not re-train the base model, and
can be viewed as a graph clustering of the query set, subject to supervision
constraints from the support set. We derive a computationally efficient bound
optimizer of a relaxation of our function, which computes independent
(parallel) updates for each query sample, while guaranteeing convergence.
Following a simple cross-entropy training on the base classes, and without
complex meta-learning strategies, we conducted comprehensive experiments over
five few-shot learning benchmarks. Our LaplacianShot consistently outperforms
state-of-the-art methods by significant margins across different models,
settings, and data sets. Furthermore, our transductive inference is very fast,
with computational times that are close to inductive inference, and can be used
for large-scale few-shot tasks.
- Abstract(参考訳): 少数ショットタスクに対するラプラシアン正規化推論を提案する。
基本クラスから学習した特徴が組み込まれている場合、(1)クエリサンプルを最も近いクラスプロトタイプに割り当てる一意項、(2)近隣のクエリサンプルに一貫性のあるラベル割り当てを推奨する対のラプラシアン項の2つの項を含む二次二項割り当て関数を最小化する。
我々のトランスダクティブ推論はベースモデルを再トレーニングせず、サポートセットからの監督制約を受けながら、クエリセットのグラフクラスタリングとして見ることができます。
コンバージェンスを保証しつつ,各クエリの独立(並列)更新を計算した関数の緩和を,計算的に効率的なバウンダリオプティマイザから導出する。
簡単なクロスエントロピートレーニングをベースクラスで実施し,複雑なメタ学習戦略を伴わずに,5つの数発学習ベンチマークを総合的に実験した。
私たちのLaplacianShotは、さまざまなモデル、設定、データセット間で大きなマージンで、最先端のメソッドを一貫して上回ります。
さらに、我々のトランスダクティブ推論は非常に高速で、計算時間はインダクティブ推論に近いため、大規模な少数ショットタスクに使用できる。
関連論文リスト
- Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Towards Practical Few-Shot Query Sets: Transductive Minimum Description
Length Inference [0.0]
そこで本研究では,PrimAl Dual Minimum Description LEngth (PADDLE) の定式化について述べる。
制約のあるMDLライクな目的は、いくつかのタスクのデータに適合する有効なクラスのみを保ちながら、起こりうる多数のクラス間の競争を促進する。
論文 参考訳(メタデータ) (2022-10-26T08:06:57Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Mutual-Information Based Few-Shot Classification [34.95314059362982]
数ショット学習のためのTIM(Transductive Infomation Maximization)を提案する。
提案手法は,与えられた数発のタスクに対して,クエリ特徴とラベル予測との相互情報を最大化する。
そこで我々は,勾配に基づく最適化よりもトランスダクティブ推論を高速化する交代方向解法を提案する。
論文 参考訳(メタデータ) (2021-06-23T09:17:23Z) - Transductive Few-Shot Learning: Clustering is All You Need? [31.21306826132773]
そこで本研究では,プロトタイプをベースとした超越的数ショット学習の汎用的定式化について検討する。
提案手法は, 精度と最適化の観点から, 大きな問題にスケールアップしながら, 競争性能を向上する。
驚いたことに、私たちの一般的なモデルは、最先端の学習と比較して、すでに競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-16T16:14:01Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Transductive Information Maximization For Few-Shot Learning [41.461586994394565]
数ショット学習のためのTIM(Transductive Infomation Maximization)を提案する。
提案手法は,与えられた数発のタスクに対して,クエリ特徴とラベル予測との相互情報を最大化する。
相互情報損失に対する新たな交互方向解法を提案する。
論文 参考訳(メタデータ) (2020-08-25T22:38:41Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。