論文の概要: Flexible Few-Shot Learning with Contextual Similarity
- arxiv url: http://arxiv.org/abs/2012.05895v1
- Date: Thu, 10 Dec 2020 18:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:40:45.393719
- Title: Flexible Few-Shot Learning with Contextual Similarity
- Title(参考訳): 文脈的類似性を考慮したフレキシブルFew-Shot学習
- Authors: Mengye Ren, Eleni Triantafillou, Kuan-Chieh Wang, James Lucas, Jake
Snell, Xaq Pitkow, Andreas S. Tolias, Richard Zemel
- Abstract要約: タスクコンテキストに応じて例間の類似性がエピソードごとに変化するような現実的な設定を考える。
この柔軟な数ショットシナリオのための新しいベンチマークデータセットを定義します。
私たちのアプローチは、新しい柔軟な数ショット学習ベンチマークで強く機能します。
- 参考スコア(独自算出の注目度): 33.6420962942815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches to few-shot learning deal with tasks that have
persistent, rigid notions of classes. Typically, the learner observes data only
from a fixed number of classes at training time and is asked to generalize to a
new set of classes at test time. Two examples from the same class would always
be assigned the same labels in any episode. In this work, we consider a
realistic setting where the similarities between examples can change from
episode to episode depending on the task context, which is not given to the
learner. We define new benchmark datasets for this flexible few-shot scenario,
where the tasks are based on images of faces (Celeb-A), shoes (Zappos50K), and
general objects (ImageNet-with-Attributes). While classification baselines and
episodic approaches learn representations that work well for standard few-shot
learning, they suffer in our flexible tasks as novel similarity definitions
arise during testing. We propose to build upon recent contrastive unsupervised
learning techniques and use a combination of instance and class invariance
learning, aiming to obtain general and flexible features. We find that our
approach performs strongly on our new flexible few-shot learning benchmarks,
demonstrating that unsupervised learning obtains more generalizable
representations.
- Abstract(参考訳): 既存の数ショット学習アプローチは、永続的で厳密なクラス概念を持つタスクを扱う。
通常、学習者は、トレーニング時に一定の数のクラスからのみデータを観察し、テスト時に新しいクラスのセットに一般化するように要求される。
同じクラスの2つの例は、どのエピソードでも常に同じラベルが割り当てられる。
本研究では,学習者には与えられない課題状況に応じて,事例間の類似性がエピソードごとに変化しうる現実的な環境について考察する。
このフレキシブルな数ショットシナリオのために、タスクは顔(Celeb-A)、靴(Zappos50K)、一般的なオブジェクト(ImageNet-with-Attributes)の画像に基づいて、新しいベンチマークデータセットを定義する。
分類基準とエピソード的アプローチは、標準的な数ショット学習に適する表現を学習する一方で、テスト中に新しい類似性の定義が生じると、柔軟なタスクに苦しむ。
本稿では,最近のコントラストのない非教師付き学習技術を構築し,汎用性と柔軟な特徴の獲得を目的とした,インスタンスとクラス不変学習の組み合わせを提案する。
我々のアプローチは,新しいフレキシブルなマイズショット学習ベンチマークに強く依存し,教師なし学習がより一般化可能な表現を得ることを実証した。
関連論文リスト
- Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Shot in the Dark: Few-Shot Learning with No Base-Class Labels [32.96824710484196]
市販の自己教師型学習は,MiniImageNet上での5ショット精度において,トランスダクティブな数ショット法を3.9%向上させることを示した。
このことは、数発の学習において、自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
論文 参考訳(メタデータ) (2020-10-06T02:05:27Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。