論文の概要: Task-Adaptive Clustering for Semi-Supervised Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2003.08221v1
- Date: Wed, 18 Mar 2020 13:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:22:01.291227
- Title: Task-Adaptive Clustering for Semi-Supervised Few-Shot Classification
- Title(参考訳): 半教師付き少数ショット分類のためのタスク適応クラスタリング
- Authors: Jun Seo, Sung Whan Yoon, Jaekyun Moon
- Abstract要約: 未確認のタスクを、少量の新しいトレーニングデータだけで処理することを目的としている。
しかし、数ショットの学習者が準備(メタトレーニング)する際には、大量のラベル付きデータが必要である。
そこで本研究では,トレーニングデータの大部分がラベル付けされていない半教師付き環境下で動作可能な,数発の学習者を提案する。
- 参考スコア(独自算出の注目度): 23.913195015484696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning aims to handle previously unseen tasks using only a small
amount of new training data. In preparing (or meta-training) a few-shot
learner, however, massive labeled data are necessary. In the real world,
unfortunately, labeled data are expensive and/or scarce. In this work, we
propose a few-shot learner that can work well under the semi-supervised setting
where a large portion of training data is unlabeled. Our method employs
explicit task-conditioning in which unlabeled sample clustering for the current
task takes place in a new projection space different from the embedding feature
space. The conditioned clustering space is linearly constructed so as to
quickly close the gap between the class centroids for the current task and the
independent per-class reference vectors meta-trained across tasks. In a more
general setting, our method introduces a concept of controlling the degree of
task-conditioning for meta-learning: the amount of task-conditioning varies
with the number of repetitive updates for the clustering space. Extensive
simulation results based on the miniImageNet and tieredImageNet datasets show
state-of-the-art semi-supervised few-shot classification performance of the
proposed method. Simulation results also indicate that the proposed
task-adaptive clustering shows graceful degradation with a growing number of
distractor samples, i.e., unlabeled sample images coming from outside the
candidate classes.
- Abstract(参考訳): 未確認のタスクを、少量の新しいトレーニングデータだけで処理することを目的としている。
しかし、数発学習者の準備(あるいはメタトレーニング)では、大量のラベル付きデータが必要である。
実世界では、残念ながらラベル付きデータは高価で不足している。
本研究では,トレーニングデータの大部分をラベル付けしていない半教師環境下でうまく機能する,数発学習システムを提案する。
提案手法では, 組込み特徴空間とは異なる新しい射影空間において, 現在のタスクに対するラベル付きサンプルクラスタリングを行う。
条件付きクラスタリング空間は、現在のタスクのクラスセンタロイドと、タスク間でメタトレーニングされる独立したクラス毎の参照ベクトルとの間のギャップを迅速に閉じるように線形に構成される。
より一般的な設定では,メタ学習におけるタスクコンディショニングの度合いを制御するという概念を導入し,クラスタリング空間の繰り返し更新数に応じてタスクコンディショニングの量が変化する。
miniImageNet と tieredImageNet のデータセットに基づく広範囲なシミュレーション結果から,提案手法の半教師付きセミショット分類性能を示す。
シミュレーションの結果,提案したタスク適応型クラスタリングは,対象クラス外からのラベル付きサンプル画像の増加に伴い,優れた劣化を示すことが示された。
関連論文リスト
- Integrated Image-Text Based on Semi-supervised Learning for Small Sample Instance Segmentation [1.3157419797035321]
本稿では,既存情報の利用を最大化する観点から,新しいサンプルインスタンス分割法を提案する。
まず、ラベルのないデータを学習して擬似ラベルを生成し、利用可能なサンプルの数を増やすことで、モデルが完全に活用するのに役立つ。
第二に、テキストと画像の特徴を統合することにより、より正確な分類結果を得ることができる。
論文 参考訳(メタデータ) (2024-10-21T14:44:08Z) - Investigating Self-Supervised Methods for Label-Efficient Learning [27.029542823306866]
低撮影能力のためのコントラスト学習、クラスタリング、マスク付き画像モデリングなど、さまざまな自己教師付きプレテキストタスクについて検討する。
マスク画像モデリングとクラスタリングの両方をプリテキストタスクとして含むフレームワークを導入する。
実規模データセット上でモデルをテストした場合,マルチクラス分類,マルチラベル分類,セマンティックセマンティックセグメンテーションにおける性能向上を示す。
論文 参考訳(メタデータ) (2024-06-25T10:56:03Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。