論文の概要: Unseen Classes at a Later Time? No Problem
- arxiv url: http://arxiv.org/abs/2203.16517v1
- Date: Wed, 30 Mar 2022 17:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:19:41.356073
- Title: Unseen Classes at a Later Time? No Problem
- Title(参考訳): 未確認の授業は後回し?
問題ない
- Authors: Hari Chandana Kuchibhotla, Sumitra S Malagi, Shivam Chandhok, Vineeth
N Balasubramanian
- Abstract要約: より実用的でフレキシブルなオンラインCGZSL設定を提案する。
これらのCGZSL設定のいずれにおいても時間とともに現れる新しいクラスの追加に動的に適応するために、双方向インクリメンタルアライメントを活用する、CGZSL用の統合機能生成フレームワークを導入する。
- 参考スコア(独自算出の注目度): 17.254973125515402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent progress towards learning from limited supervision has encouraged
efforts towards designing models that can recognize novel classes at test time
(generalized zero-shot learning or GZSL). GZSL approaches assume knowledge of
all classes, with or without labeled data, beforehand. However, practical
scenarios demand models that are adaptable and can handle dynamic addition of
new seen and unseen classes on the fly (that is continual generalized zero-shot
learning or CGZSL). One solution is to sequentially retrain and reuse
conventional GZSL methods, however, such an approach suffers from catastrophic
forgetting leading to suboptimal generalization performance. A few recent
efforts towards tackling CGZSL have been limited by difference in settings,
practicality, data splits and protocols followed-inhibiting fair comparison and
a clear direction forward. Motivated from these observations, in this work, we
firstly consolidate the different CGZSL setting variants and propose a new
Online-CGZSL setting which is more practical and flexible. Secondly, we
introduce a unified feature-generative framework for CGZSL that leverages
bi-directional incremental alignment to dynamically adapt to addition of new
classes, with or without labeled data, that arrive over time in any of these
CGZSL settings. Our comprehensive experiments and analysis on five benchmark
datasets and comparison with baselines show that our approach consistently
outperforms existing methods, especially on the more practical Online setting.
- Abstract(参考訳): 限られた監督から学ぶための最近の進歩は、テスト時に新しいクラスを認識できるモデル(一般化ゼロショット学習(gzsl))を設計する取り組みを奨励している。
GZSLアプローチは、事前にラベル付きデータの有無にかかわらず、すべてのクラスの知識を前提とします。
しかし、現実的なシナリオでは、適応可能なモデルが必要であり、新しく見えるクラスや見えないクラスの動的追加を扱うことができる(これは連続的な一般化されたゼロショット学習(CGZSL)である)。
一つの解決策は、従来のgzsl法を順次再訓練し再利用することであるが、そのようなアプローチは破滅的な忘れ込みに苦しみ、準最適一般化性能に繋がる。
CGZSLに取り組むための最近の取り組みは、設定、実用性、データ分割、プロトコルの継続による公正比較と明確な方向性の違いによって制限されている。
これらの観測から,本研究ではまず,異なるCGZSL設定を統合し,より実用的でフレキシブルな新しいオンラインCGZSL設定を提案する。
次に,双方向のインクリメンタルアライメントを活用したcgzslのための統合機能生成フレームワークを導入し,これらのcgzsl設定において,ラベル付きデータの有無に関わらず,新たなクラスの追加に動的に適応する。
5つのベンチマークデータセットに関する総合的な実験と分析とベースラインとの比較から,本手法が既存の手法,特により実用的なオンライン環境を一貫して上回っていることが示された。
関連論文リスト
- Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning [48.80413182126543]
そこで我々は,Bi-VAEGANと呼ばれる新しいゼロショット学習モデル(TZSL)を提案する。
視覚空間と補助空間の間の配向の強化によるシフトを大幅に改善する。
ベンチマーク評価では、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、新しい芸術の状態を達成している。
論文 参考訳(メタデータ) (2023-03-15T15:32:59Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Contrastive Embedding for Generalized Zero-Shot Learning [22.050109158293402]
汎用ゼロショット学習(GZSL)は、目に見えないクラスと見えないクラスの両方からオブジェクトを認識することを目的としている。
最近の特徴生成手法は、見当たらないクラスの視覚的特徴を合成できる生成モデルを学ぶ。
本稿では,生成モデルを組込みモデルに統合し,ハイブリッドgzslフレームワークを実現することを提案する。
論文 参考訳(メタデータ) (2021-03-30T08:54:03Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - Generative Replay-based Continual Zero-Shot Learning [7.909034037183046]
再生再生型連続ZSL(GRCZSL)を開発した。
提案手法は従来のZSLにストリーミングデータから学び、以前のタスクの経験を忘れることなく新しい知識を得ることができる。
GRZSL法は,実世界の問題設定をシミュレートした連続学習の単一ヘッド設定のために開発された。
論文 参考訳(メタデータ) (2021-01-22T00:03:34Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z) - Generalized Continual Zero-Shot Learning [7.097782028036196]
ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
論文 参考訳(メタデータ) (2020-11-17T08:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。