論文の概要: An Iterative Co-Training Transductive Framework for Zero Shot Learning
- arxiv url: http://arxiv.org/abs/2203.16041v1
- Date: Wed, 30 Mar 2022 04:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:07:52.829571
- Title: An Iterative Co-Training Transductive Framework for Zero Shot Learning
- Title(参考訳): ゼロショット学習のための反復学習型トランスダクティブフレームワーク
- Authors: Bo Liu, Lihua Hu, Qiulei Dong, and Zhanyi Hu
- Abstract要約: 本稿では、2つの異なるベースZSLモデルと交換モジュールを含む反復的協調学習フレームワークを提案する。
各イテレーションにおいて、2つの異なるZSLモデルは、目に見えないクラスサンプルの擬似ラベルを別々に予測するために、共同訓練される。
我々のフレームワークは、2つのモデルの分類能力の潜在的な相補性をフル活用することで、ZSLの性能を徐々に向上させることができる。
- 参考スコア(独自算出の注目度): 24.401200814880124
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In zero-shot learning (ZSL) community, it is generally recognized that
transductive learning performs better than inductive one as the unseen-class
samples are also used in its training stage. How to generate pseudo labels for
unseen-class samples and how to use such usually noisy pseudo labels are two
critical issues in transductive learning. In this work, we introduce an
iterative co-training framework which contains two different base ZSL models
and an exchanging module. At each iteration, the two different ZSL models are
co-trained to separately predict pseudo labels for the unseen-class samples,
and the exchanging module exchanges the predicted pseudo labels, then the
exchanged pseudo-labeled samples are added into the training sets for the next
iteration. By such, our framework can gradually boost the ZSL performance by
fully exploiting the potential complementarity of the two models'
classification capabilities. In addition, our co-training framework is also
applied to the generalized ZSL (GZSL), in which a semantic-guided OOD detector
is proposed to pick out the most likely unseen-class samples before class-level
classification to alleviate the bias problem in GZSL. Extensive experiments on
three benchmarks show that our proposed methods could significantly outperform
about $31$ state-of-the-art ones.
- Abstract(参考訳): ゼロショット学習(ZSL)コミュニティでは,非目にないサンプルもトレーニング段階で使用されるため,トランスダクティブ学習が誘導学習よりも優れていることが一般的に認識されている。
非seenクラスサンプルの擬似ラベルの生成方法と、そのような騒がしい擬似ラベルの使い方は、トランスダクティブ学習において2つの重要な問題である。
本研究では、2つの異なるベースZSLモデルと交換モジュールを含む反復的協調学習フレームワークを提案する。
各イテレーションにおいて、2つの異なるZSLモデルを共同でトレーニングし、未確認のサンプルの擬似ラベルを個別に予測し、交換モジュールが予測された擬似ラベルを交換した後、次のイテレーションで交換された擬似ラベル付きサンプルをトレーニングセットに追加する。
これにより、2つのモデルの分類能力の潜在的な相補性をフル活用することにより、ZSLの性能を徐々に向上させることができる。
さらに,本手法を一般化したZSL (GZSL) にも適用し,GZSLのバイアス問題を緩和するために,クラスレベルの分類の前に最も見知らぬ可能性のあるサンプルを抽出する意味誘導OOD検出器を提案する。
3つのベンチマークを広範囲に実験した結果,提案手法が約311ドルの最先端手法を著しく上回ることがわかった。
関連論文リスト
- Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - SemiReward: A General Reward Model for Semi-supervised Learning [58.47299780978101]
半教師付き学習(SSL)は、擬似ラベリングによる自己学習フレームワークの様々な改善により、大きな進歩をみせた。
主な課題は、高品質な擬似ラベルを確認バイアスと区別する方法である。
本稿では、報酬スコアを予測して高品質な擬似ラベルを評価・フィルタリングするセミ教師付きリワードフレームワーク(SemiReward)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:56:41Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning [48.80413182126543]
そこで我々は,Bi-VAEGANと呼ばれる新しいゼロショット学習モデル(TZSL)を提案する。
視覚空間と補助空間の間の配向の強化によるシフトを大幅に改善する。
ベンチマーク評価では、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、新しい芸術の状態を達成している。
論文 参考訳(メタデータ) (2023-03-15T15:32:59Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Hardness Sampling for Self-Training Based Transductive Zero-Shot
Learning [10.764160559530847]
既存のZSL作業におけるドメインシフト問題を緩和するトランスダクティブゼロショット学習(T-ZSL)が近年注目を集めている。
まず,学習過程における難易度が異なる未確認級試料の役割を実証的に分析した。
本研究では,与えられた未知のデータセットから多種多様なサンプルと硬質サンプルのサブセットを選択するための2つのハードネスサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T06:55:19Z) - A Simple Approach for Zero-Shot Learning based on Triplet Distribution
Embeddings [6.193231258199234]
ZSLは、セマンティック情報を利用して、ラベル付きトレーニングデータを使わずに、目に見えないクラスを認識することを目指している。
既存のZSL法は主にベクトルを用いて意味空間への埋め込みを表現する。
分散埋め込みの利用を利用してこの問題に対処する。
論文 参考訳(メタデータ) (2021-03-29T20:26:20Z) - Towards Zero-Shot Learning with Fewer Seen Class Examples [41.751885300474925]
ゼロショット学習(ZSL)のためのメタ学習に基づく生成モデルを提案する。
この設定は従来のZSLアプローチとは対照的であり、トレーニングは通常、各クラスから十分な数のトレーニングサンプルが利用可能であると仮定する。
筆者らは,ZSLの4つのベンチマークデータセットに関する広範囲な実験およびアブレーション研究を行い,提案モデルが実例数が非常に小さい場合に,最先端のアプローチよりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2020-11-14T11:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。