論文の概要: Hardness Sampling for Self-Training Based Transductive Zero-Shot
Learning
- arxiv url: http://arxiv.org/abs/2106.00264v1
- Date: Tue, 1 Jun 2021 06:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:19:41.278629
- Title: Hardness Sampling for Self-Training Based Transductive Zero-Shot
Learning
- Title(参考訳): 自己学習に基づくトランスダクティブゼロショット学習のためのハードネスサンプリング
- Authors: Liu Bo, Qiulei Dong, Zhanyi Hu
- Abstract要約: 既存のZSL作業におけるドメインシフト問題を緩和するトランスダクティブゼロショット学習(T-ZSL)が近年注目を集めている。
まず,学習過程における難易度が異なる未確認級試料の役割を実証的に分析した。
本研究では,与えられた未知のデータセットから多種多様なサンプルと硬質サンプルのサブセットを選択するための2つのハードネスサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 10.764160559530847
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transductive zero-shot learning (T-ZSL) which could alleviate the domain
shift problem in existing ZSL works, has received much attention recently.
However, an open problem in T-ZSL: how to effectively make use of unseen-class
samples for training, still remains. Addressing this problem, we first
empirically analyze the roles of unseen-class samples with different degrees of
hardness in the training process based on the uneven prediction phenomenon
found in many ZSL methods, resulting in three observations. Then, we propose
two hardness sampling approaches for selecting a subset of diverse and hard
samples from a given unseen-class dataset according to these observations. The
first one identifies the samples based on the class-level frequency of the
model predictions while the second enhances the former by normalizing the class
frequency via an approximate class prior estimated by an explored prior
estimation algorithm. Finally, we design a new Self-Training framework with
Hardness Sampling for T-ZSL, called STHS, where an arbitrary inductive ZSL
method could be seamlessly embedded and it is iteratively trained with
unseen-class samples selected by the hardness sampling approach. We introduce
two typical ZSL methods into the STHS framework and extensive experiments
demonstrate that the derived T-ZSL methods outperform many state-of-the-art
methods on three public benchmarks. Besides, we note that the unseen-class
dataset is separately used for training in some existing transductive
generalized ZSL (T-GZSL) methods, which is not strict for a GZSL task. Hence,
we suggest a more strict T-GZSL data setting and establish a competitive
baseline on this setting by introducing the proposed STHS framework to T-GZSL.
- Abstract(参考訳): 既存のZSL作業におけるドメインシフト問題を緩和するトランスダクティブゼロショット学習(T-ZSL)が近年注目を集めている。
しかし、T-ZSLのオープンな問題として、未確認クラスのサンプルを効果的にトレーニングに利用する方法が残っている。
そこで本研究では,zsl法で見られる不均一な予測現象に基づいて,訓練過程における難易度が異なる非検出クラスサンプルの役割を経験的に解析し,3つの観察結果を得た。
そこで本研究では,与えられた非知覚型データセットから多様かつ硬質なサンプルのサブセットを選択するための2つのハードネスサンプリング手法を提案する。
第1はモデル予測のクラスレベル周波数に基づいてサンプルを識別し、第2は探索された事前推定アルゴリズムにより推定された近似クラスを介してクラス周波数を正規化することにより前者を強化する。
最後に, 任意の誘導型ZSL法をシームレスに組み込むことができ, ハードネスサンプリング手法で選択した未確認のサンプルを反復的に学習できるSTHSという, T-ZSL用自己学習フレームワークを設計した。
我々はSTHSフレームワークに2つの典型的なZSL手法を導入し、得られたT-ZSL法が3つの公開ベンチマークで多くの最先端手法より優れていることを示す。
また,既存の一般化ZSL (T-GZSL) 法を学習するためには,未確認のデータセットを別々に使用し,GZSL タスクには厳密でない点に留意する。
したがって、より厳密なT-GZSLデータ設定を提案し、提案したSTHSフレームワークをT-GZSLに導入することにより、この設定の競争ベースラインを確立する。
関連論文リスト
- Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - An Iterative Co-Training Transductive Framework for Zero Shot Learning [24.401200814880124]
本稿では、2つの異なるベースZSLモデルと交換モジュールを含む反復的協調学習フレームワークを提案する。
各イテレーションにおいて、2つの異なるZSLモデルは、目に見えないクラスサンプルの擬似ラベルを別々に予測するために、共同訓練される。
我々のフレームワークは、2つのモデルの分類能力の潜在的な相補性をフル活用することで、ZSLの性能を徐々に向上させることができる。
論文 参考訳(メタデータ) (2022-03-30T04:08:44Z) - Pseudo-Labeled Auto-Curriculum Learning for Semi-Supervised Keypoint
Localization [88.74813798138466]
オブジェクトのキーポイントのローカライズは、基本的な視覚的問題である。
キーポイントローカライゼーションネットワークの教師付き学習は、しばしば大量のデータを必要とする。
本稿では,一連の動的しきい値を持つ信頼度の高い擬似ラベルサンプルを自動的に選択する。
論文 参考訳(メタデータ) (2022-01-21T09:51:58Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。