論文の概要: How Robust are Discriminatively Trained Zero-Shot Learning Models?
- arxiv url: http://arxiv.org/abs/2201.10972v2
- Date: Thu, 27 Jan 2022 08:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 11:45:29.528655
- Title: How Robust are Discriminatively Trained Zero-Shot Learning Models?
- Title(参考訳): 差別的に訓練されたゼロショット学習モデルについて
- Authors: Mehmet Kerim Yucel, Ramazan Gokberk Cinbis, Pinar Duygulu
- Abstract要約: 画像劣化に対する識別的ZSLのロバスト性に関する新しい解析法を提案する。
SUN-C, CUB-C, AWA2-Cの最初のZSL破壊堅牢性データセットをリリースする。
- 参考スコア(独自算出の注目度): 9.62543698736491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data shift robustness has been primarily investigated from a fully supervised
perspective, and robustness of zero-shot learning (ZSL) models have been
largely neglected. In this paper, we present novel analyses on the robustness
of discriminative ZSL to image corruptions. We subject several ZSL models to a
large set of common corruptions and defenses. In order to realize the
corruption analysis, we curate and release the first ZSL corruption robustness
datasets SUN-C, CUB-C and AWA2-C. We analyse our results by taking into account
the dataset characteristics, class imbalance, class transitions between seen
and unseen classes and the discrepancies between ZSL and GZSL performances. Our
results show that discriminative ZSL suffers from corruptions and this trend is
further exacerbated by the severe class imbalance and model weakness inherent
in ZSL methods. We then combine our findings with those based on adversarial
attacks in ZSL, and highlight the different effects of corruptions and
adversarial examples, such as the pseudo-robustness effect present under
adversarial attacks. We also obtain new strong baselines for both models with
the defense methods. Finally, our experiments show that although existing
methods to improve robustness somewhat work for ZSL models, they do not produce
a tangible effect.
- Abstract(参考訳): データシフトの堅牢性は主に教師付きの観点から研究されており、ゼロショット学習(ZSL)モデルの堅牢性はほとんど無視されている。
本稿では,画像劣化に対する識別的ZSLの堅牢性に関する新しい解析法を提案する。
いくつかのZSLモデルを、共通の汚職と防衛の大規模なセットに適用する。
汚損解析を実現するため,最初のZSL汚損頑健性データセットSUN-C,CUB-C,AWA2-Cをキュレート・リリースする。
我々は、データセットの特徴、クラス不均衡、見知らぬクラスと見えないクラス間のクラス遷移、およびZSLとGZSLのパフォーマンスの相違を考慮し、その結果を分析した。
この傾向は,ZSL法に固有の厳密なクラス不均衡とモデル弱さによってさらに悪化している。
次に,zslにおける敵意攻撃に基づく結果と組み合わせることで,敵意攻撃時に発生する疑似ロバスト効果など,腐敗と敵意の異なる効果を浮き彫りにする。
また, 両モデルに対して, 防御手法による新たな強いベースラインを得る。
最後に,ZSLモデルにおいて,ロバスト性向上のための既存手法はやや有効であるが,具体的な効果は得られないことを示す。
関連論文リスト
- Self-Supervised Anomaly Detection in the Wild: Favor Joint Embeddings Methods [12.277762115388187]
Self-Supervised Learning (SSL)は、ラベルのないデータから堅牢な表現を学習することで、有望なアプローチを提供する。
本稿では,下水道インフラに着目した実世界の異常検出のためのSSL手法の包括的評価を行う。
論文 参考訳(メタデータ) (2024-10-05T21:27:47Z) - On the Discriminability of Self-Supervised Representation Learning [38.598160031349686]
自己教師付き学習(SSL)は、最近、下流の視覚タスクで大きな成功を収めた。
特に複雑な下流タスクにおいて、SSLと教師あり学習(SL)の間には、注目すべきギャップがまだ残っている。
論文 参考訳(メタデータ) (2024-07-18T14:18:03Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - A Deep Dive into Adversarial Robustness in Zero-Shot Learning [9.62543698736491]
本稿では,ゼロショット学習(ZSL)モデルと一般化ゼロショット学習(GZSL)モデルの対角的堅牢性を評価することを目的とした研究を行う。
ZSLモデルの逆ロバスト性に関する最初のベンチマークを作成することに加えて、ZSLロバスト性の結果をよりよく解釈するために注意を要する重要な点についても分析する。
論文 参考訳(メタデータ) (2020-08-17T22:26:06Z) - Semi-supervised learning objectives as log-likelihoods in a generative
model of data curation [32.45282187405337]
データキュレーションの生成モデルにおいて、SSLの目的をログライクな形式として定式化する。
おもちゃのデータにベイジアンSSLの証明を与える。
論文 参考訳(メタデータ) (2020-08-13T13:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。