論文の概要: EASY: Ensemble Augmented-Shot Y-shaped Learning: State-Of-The-Art
Few-Shot Classification with Simple Ingredients
- arxiv url: http://arxiv.org/abs/2201.09699v1
- Date: Mon, 24 Jan 2022 14:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:30:57.547257
- Title: EASY: Ensemble Augmented-Shot Y-shaped Learning: State-Of-The-Art
Few-Shot Classification with Simple Ingredients
- Title(参考訳): 簡単なaugmented-shot y-shaped learning: 簡単な材料による最先端の少数ショット分類
- Authors: Yassir Bendou, Yuqing Hu, Raphael Lafargue, Giulia Lioi, Bastien
Pasdeloup, St\'ephane Pateux, Vincent Gripon
- Abstract要約: 1つ以上のディープラーニングモデルで学習した知識を活用することを目的として,新しい問題に対する優れた分類性能を得る。
フィールドの標準化された複数のベンチマークで、アートパフォーマンスの状態を達成または打ち負かすような、シンプルな手法を提案する。
- 参考スコア(独自算出の注目度): 2.0935101589828244
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot learning aims at leveraging knowledge learned by one or more deep
learning models, in order to obtain good classification performance on new
problems, where only a few labeled samples per class are available. Recent
years have seen a fair number of works in the field, introducing methods with
numerous ingredients. A frequent problem, though, is the use of suboptimally
trained models to extract knowledge, leading to interrogations on whether
proposed approaches bring gains compared to using better initial models without
the introduced ingredients. In this work, we propose a simple methodology, that
reaches or even beats state of the art performance on multiple standardized
benchmarks of the field, while adding almost no hyperparameters or parameters
to those used for training the initial deep learning models on the generic
dataset. This methodology offers a new baseline on which to propose (and fairly
compare) new techniques or adapt existing ones.
- Abstract(参考訳): Few-shot Learningは1つ以上のディープラーニングモデルによって学習された知識を活用することを目的としており、クラスごとのラベル付きサンプルがわずかである新しい問題に対する優れた分類性能を得る。
近年、この分野で多くの作品が見られ、多くの材料を用いた手法が導入されている。
しかし、しばしば問題となるのは、知識を抽出するために最適に訓練されたモデルを使用することであり、提案されたアプローチが、導入済みの材料を使わずにより良い初期モデルを使用するよりも利益をもたらすかどうかを問うことになる。
本稿では,フィールドの複数の標準ベンチマークにおいて,初期ディープラーニングモデルのトレーニングに使用するハイパーパラメータやパラメータをほとんど追加することなく,技術性能の限界に達したり,あるいはそれを上回るような単純な手法を提案する。
この方法論は、新しいテクニックを提案(そして比較的比較)するか、既存の手法を適応させる新しいベースラインを提供する。
関連論文リスト
- Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery [76.63807209414789]
我々は,クラスiNCDにおける現状問題に挑戦し,クラス発見を継続的に,真に教師なしで行う学習パラダイムを提案する。
凍結したPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - Learning New Tasks from a Few Examples with Soft-Label Prototypes [18.363177410917597]
ソフトラベルのプロトタイプ(SLP)に基づく新しい数ショット学習手法を提案する。
これまでにないNLPタスク(4,8,16)の学習に重点を置いている。
このデータ・リーン・セッティングにおけるテスト作業の大部分において,本手法が優れた性能を発揮することを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-31T16:06:48Z) - Demystifying the Base and Novel Performances for Few-shot
Class-incremental Learning [15.762281194023462]
FSCIL(Few-shot class-incremental Learning)は、目に見えない新しいクラスがほとんどサンプルを持って絶えずやってくる現実のシナリオに対処している。
先行知識を忘れずに新しいクラスを認識するモデルを開発する必要がある。
本手法は,高度な最先端アルゴリズムと同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-18T00:39:47Z) - Practical Active Learning with Model Selection for Small Data [13.128648437690224]
モデル選択を用いた実践的能動的学習のための簡易かつ高速な手法を開発した。
本手法は,ラジアル基底関数カーネルを用いたサポートベクトル分類を用いて,二元分類のためのプールベースアクティブラーナに基づく。
論文 参考訳(メタデータ) (2021-12-21T23:11:27Z) - A Primal-Dual Subgradient Approachfor Fair Meta Learning [23.65344558042896]
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
論文 参考訳(メタデータ) (2020-09-26T19:47:38Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Learning to Select Base Classes for Few-shot Classification [96.92372639495551]
我々は、数ショットモデルの一般化性能を示す指標として、類似度比を用いる。
次に、類似度比に対する部分モジュラー最適化問題として基底クラス選択問題を定式化する。
論文 参考訳(メタデータ) (2020-04-01T09:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。