論文の概要: Transductive Maximum Margin Classifier for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2107.11975v1
- Date: Mon, 26 Jul 2021 06:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:03:53.626202
- Title: Transductive Maximum Margin Classifier for Few-Shot Learning
- Title(参考訳): Few-Shot Learningのためのトランスダクティブ最大マルジン分類器
- Authors: Fei Pan, Chunlei Xu, Jie Guo, Yanwen Guo
- Abstract要約: ほとんどショットラーニングは、クラス毎に少数のラベル付きサンプルが与えられた場合に、うまく一般化できる分類器を訓練することを目的としている。
本稿では,TMMC (Transductive Maximum Margin) を導入し,それに対応する学習手法を提案する。
TMMCは、ラベル付きサポートセットとラベルなしクエリセットを混合したタスクで構築される。
- 参考スコア(独自算出の注目度): 17.18278071760926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning aims to train a classifier that can generalize well when
just a small number of labeled samples per class are given. We introduce
Transductive Maximum Margin Classifier (TMMC) for few-shot learning. The basic
idea of the classical maximum margin classifier is to solve an optimal
prediction function that the corresponding separating hyperplane can correctly
divide the training data and the resulting classifier has the largest geometric
margin. In few-shot learning scenarios, the training samples are scarce, not
enough to find a separating hyperplane with good generalization ability on
unseen data. TMMC is constructed using a mixture of the labeled support set and
the unlabeled query set in a given task. The unlabeled samples in the query set
can adjust the separating hyperplane so that the prediction function is optimal
on both the labeled and unlabeled samples. Furthermore, we leverage an
efficient and effective quasi-Newton algorithm, the L-BFGS method to optimize
TMMC. Experimental results on three standard few-shot learning benchmarks
including miniImagenet, tieredImagenet and CUB suggest that our TMMC achieves
state-of-the-art accuracies.
- Abstract(参考訳): few-shot learningは、クラス毎に少数のラベル付きサンプルが与えられた場合に、うまく一般化できる分類器をトレーニングすることを目的としている。
数ショット学習のためのTMMC(Transductive Maximum Margin Classifier)を提案する。
古典的最大マージン分類器の基本的な考え方は、対応する分離超平面がトレーニングデータを正しく分割し、得られた分類器が最大の幾何学的マージンを持つという最適予測関数を解くことである。
少数の学習シナリオでは、トレーニングサンプルは不足しており、未発見のデータに十分な一般化能力を持つ分離ハイパープレーンを見つけるには不十分である。
TMMCは、ラベル付きサポートセットとラベルなしクエリセットを混合したタスクで構築される。
クエリセット内のラベルなしサンプルは、ラベル付きサンプルとラベルなしサンプルの両方で予測関数が最適になるように分離ハイパープレーンを調整することができる。
さらに,効率的な準ニュートンアルゴリズムであるL-BFGSを用いてTMMCの最適化を行う。
miniImagenet, tieredImagenet, CUB の3つの標準数ショット学習ベンチマークによる実験結果から, TMMC が最先端の精度を達成できることが示唆された。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - SLM: End-to-end Feature Selection via Sparse Learnable Masks [12.081877372552606]
本稿では,特徴量とサンプル数の両方に関して,エンドツーエンドの特徴選択のための標準的アプローチを提案する。
SLMの中心には、シンプルだが効果的に学習可能なスパースマスクがあり、どの機能を選択するかを学ぶ。
我々は、SLMが選択した特徴数を正確に制御できるスケーリングメカニズムを導出する。
論文 参考訳(メタデータ) (2023-04-06T16:25:43Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Classifier Transfer with Data Selection Strategies for Online Support
Vector Machine Classification with Class Imbalance [1.2599533416395767]
我々は、格納されたトレーニングデータのサイズを制限するデータ選択戦略に焦点を当てる。
データ選択基準の正しい組み合わせを用いることで、分類器を適応させ、性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-10T02:36:20Z) - Gaussian Mixture Variational Autoencoder with Contrastive Learning for
Multi-Label Classification [27.043136219527767]
本稿では,新しいコントラスト学習促進型マルチラベル予測モデルを提案する。
教師付き環境でのコントラスト学習を用いることで,ラベル情報を効果的に活用することができる。
学習した埋め込みがラベルとラベルの相互作用の解釈に洞察を与えることを示す。
論文 参考訳(メタデータ) (2021-12-02T04:23:34Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。