論文の概要: Non-generative Generalized Zero-shot Learning via Task-correlated
Disentanglement and Controllable Samples Synthesis
- arxiv url: http://arxiv.org/abs/2203.05335v2
- Date: Sun, 13 Mar 2022 08:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 11:24:32.629769
- Title: Non-generative Generalized Zero-shot Learning via Task-correlated
Disentanglement and Controllable Samples Synthesis
- Title(参考訳): タスク関連アンタングルメントと制御可能なサンプル合成による非生成的一般化ゼロショット学習
- Authors: Yaogong Feng, Xiaowen Huang, Pengbo Yang, Jian Yu, Jitao Sang
- Abstract要約: これらの問題に対処する非生成モデルを提案する。
また、「Few-shot Seen Class and Zero-shot Unseen Class Learning」(FSZU)という新しいZSLタスクを定式化した。
- 参考スコア(独自算出の注目度): 20.34562156468408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing pseudo samples is currently the most effective way to solve the
Generalized Zero Shot Learning (GZSL) problem. Most models achieve competitive
performance but still suffer from two problems: (1) Feature confounding, the
overall representations confound task-correlated and task-independent features,
and existing models disentangle them in a generative way, but they are
unreasonable to synthesize reliable pseudo samples with limited samples; (2)
Distribution uncertainty, that massive data is needed when existing models
synthesize samples from the uncertain distribution, which causes poor
performance in limited samples of seen classes. In this paper, we propose a
non-generative model to address these problems correspondingly in two modules:
(1) Task-correlated feature disentanglement, to exclude the task-correlated
features from task-independent ones by adversarial learning of domain adaption
towards reasonable synthesis; (2) Controllable pseudo sample synthesis, to
synthesize edge-pseudo and center-pseudo samples with certain characteristics
towards more diversity generated and intuitive transfer. In addation, to
describe the new scene that is the limit seen class samples in the training
process, we further formulate a new ZSL task named the 'Few-shot Seen class and
Zero-shot Unseen class learning' (FSZU). Extensive experiments on four
benchmarks verify that the proposed method is competitive in the GZSL and the
FSZU tasks.
- Abstract(参考訳): 擬似サンプルの合成は、現在、一般化ゼロショット学習(GZSL)問題を解決する最も効果的な方法である。
Most models achieve competitive performance but still suffer from two problems: (1) Feature confounding, the overall representations confound task-correlated and task-independent features, and existing models disentangle them in a generative way, but they are unreasonable to synthesize reliable pseudo samples with limited samples; (2) Distribution uncertainty, that massive data is needed when existing models synthesize samples from the uncertain distribution, which causes poor performance in limited samples of seen classes.
本稿では,タスク関連特徴のゆがみ(タスク関連特徴のゆがみ)とタスク関連特徴(タスク関連特徴のゆがみ)を,ドメイン適応の合理的な合成への逆習学習(ドメイン適応の逆習学習)と,エッジ擬似サンプル合成(エッジ擬似サンプル合成)とセンター擬似サンプル合成(センター擬似サンプル合成)の2つのモジュールで対応付ける非生成モデルを提案する。
加えて、トレーニングプロセスで見られるクラスサンプルの制限である新しいシーンを記述するために、「Few-shot Seen class and Zero-shot Unseen class learning」(FSZU)という新しいZSLタスクを定式化する。
4つのベンチマークにおいて、提案手法がGZSLとFSZUタスクで競合することを確認した。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Hard Sample Matters a Lot in Zero-Shot Quantization [52.32914196337281]
ゼロショット量子化(ZSQ)は、完全精度モデルのトレーニング用データがアクセスできない場合に、ディープニューラルネットワークの圧縮と加速を約束する。
ZSQでは、合成サンプルを用いてネットワーク量子化を行うため、量子化モデルの性能は合成サンプルの品質に大きく依存する。
この問題に対処するために,HArdサンプル合成訓練(HAST)を提案する。
論文 参考訳(メタデータ) (2023-03-24T06:22:57Z) - Hardness of Samples Need to be Quantified for a Reliable Evaluation
System: Exploring Potential Opportunities with a New Task [24.6240575061124]
ベンチマーク上のモデルの評価は、サンプル硬さの程度を知らずに信頼性が低い。
我々は,0から1のスコアのベンチマークにおいて,各未注釈サンプルの割り当てを必要とするData Scoringタスクを提案する。
論文 参考訳(メタデータ) (2022-10-14T08:26:32Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Approximating Constraint Manifolds Using Generative Models for
Sampling-Based Constrained Motion Planning [8.924344714683814]
本稿では,制約付き動作計画問題に対する学習に基づくサンプリング戦略を提案する。
本研究では,条件変数自動エンコーダ(CVAE)と条件生成適応ネット(CGAN)を用いて制約条件を満たすサンプル構成を生成する。
これら2つの生成モデルの有効性を,サンプリング精度とサンプリング分布のカバレッジの観点から評価した。
論文 参考訳(メタデータ) (2022-04-14T07:08:30Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Lifelong Learning Without a Task Oracle [13.331659934508764]
監視されたディープニューラルネットワークは、新しいタスクが学習されると、古いタスクの精度が大幅に低下することが知られている。
本稿では,メモリオーバーヘッドの少ないタスク割り当てマップの提案と比較を行う。
最高のパフォーマンスの変種は、平均的なパラメータメモリの増大を1.7%に抑えるだけである。
論文 参考訳(メタデータ) (2020-11-09T21:30:31Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。