論文の概要: Non-generative Generalized Zero-shot Learning via Task-correlated
Disentanglement and Controllable Samples Synthesis
- arxiv url: http://arxiv.org/abs/2203.05335v1
- Date: Thu, 10 Mar 2022 12:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:29:43.917846
- Title: Non-generative Generalized Zero-shot Learning via Task-correlated
Disentanglement and Controllable Samples Synthesis
- Title(参考訳): タスク関連アンタングルメントと制御可能なサンプル合成による非生成的一般化ゼロショット学習
- Authors: Yaogong Feng, Xiaowen Huang, Pengbo Yang, Jian Yu, Jitao Sang
- Abstract要約: これらの問題に対処する非生成モデルを提案する。
学習過程におけるクラスサンプルの限界である新たなシーンを説明するために,「Few-shot Seen Class and Zero-shot Unseen Class Learning」(FSZU)という新たなZSLタスクを定式化した。
- 参考スコア(独自算出の注目度): 20.34562156468408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing pseudo samples is currently the most effective way to solve the
Generalized Zero Shot Learning (GZSL) problem. Most models achieve competitive
performance but still suffer from two problems: (1) feature confounding, that
task-correlated and task-independent features are confounded in overall
representations, which is unreasonable to synthesize reliable pseudo samples;
and (2) distribution uncertainty, that massive data is needed when existing
models synthesize samples from the uncertain distribution, which causes poor
performance in limited samples of seen classes. In this paper, we propose a
non-generative model to address these problems correspondingly in two modules:
(1) Task-correlated feature disentanglement, to exclude the task-correlated
features from task-independent ones by adversarial learning of domain adaption
towards reasonable synthesis; and (2) Controllable pseudo sample synthesis, to
synthesize edge-pseudo and center-pseudo samples with certain characteristics
towards more diversity generated and intuitive transfer. To describe the new
scene that is the limit seen class samples in the training process, we further
formulate a new ZSL task named the 'Few-shot Seen class and Zero-shot Unseen
class learning' (FSZU). Extensive experiments on four benchmarks verify that
the proposed method is competitive in the GZSL and the FSZU tasks.
- Abstract(参考訳): 擬似サンプルの合成は、現在、一般化ゼロショット学習(GZSL)問題を解決する最も効果的な方法である。
多くのモデルは競争性能を達成しているが,(1)タスク関連やタスク非依存といった特徴は,信頼性の高い擬似サンプルを合成するには不合理な全体表現と,(2)既存のモデルが不確実な分布からサンプルを合成する際には大量のデータが必要である,という2つの問題に悩まされている。
本稿では,これらの問題に対応する非生成モデルを提案する。(1)タスク関連特徴の絡み合い,(2)適切な合成に向けてのドメイン適応の敵対学習によるタスク非依存特徴の排除,(2)制御可能な疑似サンプル合成,(2)エッジ・プセドとセンター・プセドのサンプルを,より多様性と直感的な伝達に向けて合成する。
学習過程におけるクラスサンプルの限界である新たなシーンを説明するために,「Few-shot Seen Class and Zero-shot Unseen Class Learning」(FSZU)という新たなZSLタスクを策定する。
4つのベンチマークにおいて、提案手法がGZSLとFSZUタスクで競合することを確認した。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Hard Sample Matters a Lot in Zero-Shot Quantization [52.32914196337281]
ゼロショット量子化(ZSQ)は、完全精度モデルのトレーニング用データがアクセスできない場合に、ディープニューラルネットワークの圧縮と加速を約束する。
ZSQでは、合成サンプルを用いてネットワーク量子化を行うため、量子化モデルの性能は合成サンプルの品質に大きく依存する。
この問題に対処するために,HArdサンプル合成訓練(HAST)を提案する。
論文 参考訳(メタデータ) (2023-03-24T06:22:57Z) - Hardness of Samples Need to be Quantified for a Reliable Evaluation
System: Exploring Potential Opportunities with a New Task [24.6240575061124]
ベンチマーク上のモデルの評価は、サンプル硬さの程度を知らずに信頼性が低い。
我々は,0から1のスコアのベンチマークにおいて,各未注釈サンプルの割り当てを必要とするData Scoringタスクを提案する。
論文 参考訳(メタデータ) (2022-10-14T08:26:32Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Approximating Constraint Manifolds Using Generative Models for
Sampling-Based Constrained Motion Planning [8.924344714683814]
本稿では,制約付き動作計画問題に対する学習に基づくサンプリング戦略を提案する。
本研究では,条件変数自動エンコーダ(CVAE)と条件生成適応ネット(CGAN)を用いて制約条件を満たすサンプル構成を生成する。
これら2つの生成モデルの有効性を,サンプリング精度とサンプリング分布のカバレッジの観点から評価した。
論文 参考訳(メタデータ) (2022-04-14T07:08:30Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Lifelong Learning Without a Task Oracle [13.331659934508764]
監視されたディープニューラルネットワークは、新しいタスクが学習されると、古いタスクの精度が大幅に低下することが知られている。
本稿では,メモリオーバーヘッドの少ないタスク割り当てマップの提案と比較を行う。
最高のパフォーマンスの変種は、平均的なパラメータメモリの増大を1.7%に抑えるだけである。
論文 参考訳(メタデータ) (2020-11-09T21:30:31Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。