論文の概要: PTN: A Poisson Transfer Network for Semi-supervised Few-shot Learning
- arxiv url: http://arxiv.org/abs/2012.10844v3
- Date: Thu, 1 Apr 2021 05:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:43:26.623950
- Title: PTN: A Poisson Transfer Network for Semi-supervised Few-shot Learning
- Title(参考訳): PTN:半教師付きFew-shot学習のためのPoisson Transfer Network
- Authors: Huaxi Huang, Junjie Zhang, Jian Zhang, Qiang Wu, Chang Xu
- Abstract要約: 半教師付き小ショット学習のためのラベルのない情報をマイニングするためのPoisson Transfer Network (PTN)を提案する。
提案手法は,少数のラベル付きデータに対する過剰フィッティング問題を軽減するために,新規クラスの埋め込みを暗黙的に学習する。
- 参考スコア(独自算出の注目度): 21.170726615606185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The predicament in semi-supervised few-shot learning (SSFSL) is to maximize
the value of the extra unlabeled data to boost the few-shot learner. In this
paper, we propose a Poisson Transfer Network (PTN) to mine the unlabeled
information for SSFSL from two aspects. First, the Poisson Merriman Bence Osher
(MBO) model builds a bridge for the communications between labeled and
unlabeled examples. This model serves as a more stable and informative
classifier than traditional graph-based SSFSL methods in the message-passing
process of the labels. Second, the extra unlabeled samples are employed to
transfer the knowledge from base classes to novel classes through contrastive
learning. Specifically, we force the augmented positive pairs close while push
the negative ones distant. Our contrastive transfer scheme implicitly learns
the novel-class embeddings to alleviate the over-fitting problem on the few
labeled data. Thus, we can mitigate the degeneration of embedding generality in
novel classes. Extensive experiments indicate that PTN outperforms the
state-of-the-art few-shot and SSFSL models on miniImageNet and tieredImageNet
benchmark datasets.
- Abstract(参考訳): 半教師付き少ショット学習(SSFSL)の先行きは、余分なラベル付きデータの価値を最大化し、少ショット学習者を増やすことである。
本稿では,2つの側面からSSFSLのラベルのない情報をマイニングするためのPoisson Transfer Network (PTN)を提案する。
第一に、Poisson Merriman Bence Osher (MBO) モデルはラベル付きおよびラベルなしの例間の通信のためのブリッジを構築する。
このモデルは、ラベルのメッセージパッシングプロセスにおいて、従来のグラフベースのSSFSL法よりも安定かつ情報的分類器として機能する。
第二に、基礎クラスから新しいクラスへのコントラスト学習を通じて知識を伝達するために、余分なラベルのないサンプルを用いる。
具体的には、負の対を遠ざけながら、強化された正の対を閉じる。
我々の対照的な転送方式は、少数のラベル付きデータに対する過度に適合する問題を緩和するために、新規なクラス埋め込みを暗黙的に学習する。
したがって、新しいクラスにおける埋め込み一般化の退化を緩和することができる。
広範な実験により、PTNは miniImageNet と tieredImageNet ベンチマークデータセット上で、最先端のいくつかのショットモデルと SSFSL モデルより優れていることが示された。
関連論文リスト
- Learning to Infer from Unlabeled Data: A Semi-supervised Learning
Approach for Robust Natural Language Inference [47.293189105900524]
自然言語推論(英: Natural Language Inference、NLI)は、一対の文(前提と仮説)の関係を、関係性、矛盾、意味的な独立性として予測することを目的としている。
近年、ディープラーニングモデルはNLIに有望なパフォーマンスを示しており、大規模で高価な人型アノテートデータセットに依存している。
半教師付き学習(SSL)は、トレーニングにラベルのないデータを活用することで、人間のアノテーションへの依存を減らすための一般的な手法である。
論文 参考訳(メタデータ) (2022-11-05T20:34:08Z) - Self-Attention Message Passing for Contrastive Few-Shot Learning [2.1485350418225244]
教師なしの少ショット学習は、機械と人間のギャップを埋めることである。
本稿では,U-FSL事前学習のための自己注意型メッセージパスコントラスト学習手法(SAMP-CLR)を提案する。
また,OpT-Tune をベースとした最適トランスポート(OT)に基づく微調整戦略を提案し,タスク認識を新しいエンドツーエンドの非教師なし小ショット分類フレームワーク (SAMPTransfer) に効率的に誘導する。
論文 参考訳(メタデータ) (2022-10-12T15:57:44Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - GCT: Graph Co-Training for Semi-Supervised Few-Shot Learning [46.07923908746946]
新たなラベル予測手法である孤立グラフ学習(IGL)を提案する。
IGLでは、生データをグラフ空間にエンコードするLaplacian演算子を導入している。
第2に,マルチモーダル融合の観点から,この課題に対処するためのグラフコライニング(GCT)を提案する。
論文 参考訳(メタデータ) (2022-03-15T09:13:35Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Instance Credibility Inference for Few-Shot Learning [45.577880041135785]
ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
論文 参考訳(メタデータ) (2020-03-26T12:01:15Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。