論文の概要: How Robust are Discriminatively Trained Zero-Shot Learning Models?
- arxiv url: http://arxiv.org/abs/2201.10972v1
- Date: Wed, 26 Jan 2022 14:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 13:35:01.400798
- Title: How Robust are Discriminatively Trained Zero-Shot Learning Models?
- Title(参考訳): 差別的に訓練されたゼロショット学習モデルについて
- Authors: Mehmet Kerim Yucel, Ramazan Gokberk Cinbis, Pinar Duygulu
- Abstract要約: 画像劣化に対する識別的ZSLの堅牢性に関する新しい解析法を提案する。
我々は、よく知られたラベル埋め込みモデルを活用し、それを一般的な汚職と防衛の大規模なセットに含めます。
以上の結果から, 差別的ZSLは汚職に悩まされ, この傾向は, 重度の階級不均衡とモデル弱さによってさらに悪化していることが示された。
- 参考スコア(独自算出の注目度): 9.62543698736491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data shift robustness is an active research topic, however, it has been
primarily investigated from a fully supervised perspective, and robustness of
zero-shot learning (ZSL) models have been largely neglected. In this paper, we
present a novel analysis on the robustness of discriminative ZSL to image
corruptions. We leverage the well-known label embedding model and subject it to
a large set of common corruptions and defenses. In order to realize the
corruption analysis, we curate and release the first ZSL corruption robustness
datasets SUN-C, CUB-C and AWA2-C. We analyse our results by taking into account
the dataset characteristics, class imbalance, class transition trends between
seen and unseen classes and the discrepancies between ZSL and GZSL
performances. Our results show that discriminative ZSL suffer from corruptions
and this trend is further exacerbated by the severe class imbalance and model
weakness inherent in ZSL methods. We then combine our findings with those based
on adversarial attacks in ZSL, and highlight the different effects of
corruptions and adversarial examples, such as the pseudo-robustness effect
present under adversarial attacks. We also obtain new strong baselines for the
label embedding model with certain corruption robustness enhancement methods.
Finally, our experiments show that although existing methods to improve
robustness somewhat work for ZSL models, they do not produce a tangible effect.
- Abstract(参考訳): データシフトの堅牢性は活発な研究トピックであるが、主に教師付きの観点から研究され、ゼロショット学習(ZSL)モデルの堅牢性はほとんど無視されている。
本稿では,画像劣化に対する識別的ZSLの堅牢性に関する新しい解析法を提案する。
私たちは、よく知られたラベル埋め込みモデルを利用して、共通の腐敗と防御のセットにそれを適用します。
汚損解析を実現するため,最初のZSL汚損頑健性データセットSUN-C,CUB-C,AWA2-Cをキュレート・リリースする。
我々は,データセットの特徴,クラス不均衡,見知らぬクラス間のクラス遷移傾向,およびZSLとGZSLのパフォーマンスの相違を考慮し,分析を行った。
この傾向は,ZSL法に固有の厳密なクラス不均衡とモデル弱さによってさらに悪化している。
次に,zslにおける敵意攻撃に基づく結果と組み合わせることで,敵意攻撃時に発生する疑似ロバスト効果など,腐敗と敵意の異なる効果を浮き彫りにする。
また, ラベル埋め込みモデルに対して, 特定の破壊堅牢性向上手法による新たな強塩基性を得る。
最後に,ZSLモデルにおいて,ロバスト性向上のための既存手法はやや有効であるが,具体的な効果は得られないことを示す。
関連論文リスト
- Self-Supervised Anomaly Detection in the Wild: Favor Joint Embeddings Methods [12.277762115388187]
Self-Supervised Learning (SSL)は、ラベルのないデータから堅牢な表現を学習することで、有望なアプローチを提供する。
本稿では,下水道インフラに着目した実世界の異常検出のためのSSL手法の包括的評価を行う。
論文 参考訳(メタデータ) (2024-10-05T21:27:47Z) - On the Discriminability of Self-Supervised Representation Learning [38.598160031349686]
自己教師付き学習(SSL)は、最近、下流の視覚タスクで大きな成功を収めた。
特に複雑な下流タスクにおいて、SSLと教師あり学習(SL)の間には、注目すべきギャップがまだ残っている。
論文 参考訳(メタデータ) (2024-07-18T14:18:03Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - A Deep Dive into Adversarial Robustness in Zero-Shot Learning [9.62543698736491]
本稿では,ゼロショット学習(ZSL)モデルと一般化ゼロショット学習(GZSL)モデルの対角的堅牢性を評価することを目的とした研究を行う。
ZSLモデルの逆ロバスト性に関する最初のベンチマークを作成することに加えて、ZSLロバスト性の結果をよりよく解釈するために注意を要する重要な点についても分析する。
論文 参考訳(メタデータ) (2020-08-17T22:26:06Z) - Semi-supervised learning objectives as log-likelihoods in a generative
model of data curation [32.45282187405337]
データキュレーションの生成モデルにおいて、SSLの目的をログライクな形式として定式化する。
おもちゃのデータにベイジアンSSLの証明を与える。
論文 参考訳(メタデータ) (2020-08-13T13:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。