論文の概要: Adversarial Robustness in Zero-Shot Learning:An Empirical Study on Class and Concept-Level Vulnerabilities
- arxiv url: http://arxiv.org/abs/2512.18651v1
- Date: Sun, 21 Dec 2025 08:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.43732
- Title: Adversarial Robustness in Zero-Shot Learning:An Empirical Study on Class and Concept-Level Vulnerabilities
- Title(参考訳): ゼロショット学習における対人ロバスト性:クラスと概念レベル脆弱性に関する実証的研究
- Authors: Zhiyuan Peng, Zihan Ye, Shreyank N Gowda, Yuping Yan, Haotian Xu, Ling Shao,
- Abstract要約: Zero-shot Learning (ZSL) は、画像分類器がトレーニング中に含まれていない未確認クラスから画像を認識することを可能にすることを目的としている。
ZSLモデルは一般化と解釈可能性の向上を約束するが、体系的な入力摂動下でのロバスト性は未だ不明である。
本稿では,既存のZSL手法のクラスレベルと概念レベルでの堅牢性に関する実証分析を行う。
- 参考スコア(独自算出の注目度): 38.00830507239569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot Learning (ZSL) aims to enable image classifiers to recognize images from unseen classes that were not included during training. Unlike traditional supervised classification, ZSL typically relies on learning a mapping from visual features to predefined, human-understandable class concepts. While ZSL models promise to improve generalization and interpretability, their robustness under systematic input perturbations remain unclear. In this study, we present an empirical analysis about the robustness of existing ZSL methods at both classlevel and concept-level. Specifically, we successfully disrupted their class prediction by the well-known non-target class attack (clsA). However, in the Generalized Zero-shot Learning (GZSL) setting, we observe that the success of clsA is only at the original best-calibrated point. After the attack, the optimal bestcalibration point shifts, and ZSL models maintain relatively strong performance at other calibration points, indicating that clsA results in a spurious attack success in the GZSL. To address this, we propose the Class-Bias Enhanced Attack (CBEA), which completely eliminates GZSL accuracy across all calibrated points by enhancing the gap between seen and unseen class probabilities.Next, at concept-level attack, we introduce two novel attack modes: Class-Preserving Concept Attack (CPconA) and NonClass-Preserving Concept Attack (NCPconA). Our extensive experiments evaluate three typical ZSL models across various architectures from the past three years and reveal that ZSL models are vulnerable not only to the traditional class attack but also to concept-based attacks. These attacks allow malicious actors to easily manipulate class predictions by erasing or introducing concepts. Our findings highlight a significant performance gap between existing approaches, emphasizing the need for improved adversarial robustness in current ZSL models.
- Abstract(参考訳): Zero-shot Learning (ZSL) は、画像分類器がトレーニング中に含まれていない未確認クラスから画像を認識することを可能にすることを目的としている。
従来の教師付き分類とは異なり、ZSLは通常、視覚的特徴から事前に定義された人間の理解可能なクラス概念へのマッピングを学ぶことに依存する。
ZSLモデルは一般化と解釈可能性の向上を約束するが、体系的な入力摂動下でのロバスト性は未だ不明である。
本研究では,既存のZSL手法のクラスレベルと概念レベルの両方におけるロバスト性について,実証分析を行った。
具体的には、よく知られた非標的クラスアタック(clsA)によって、クラス予測を乱すことに成功した。
しかし, 汎用ゼロショット学習(GZSL)では, ClsAの成功は最良校正点に限られている。
攻撃後、最適校正点がシフトし、ZSLモデルは他の校正点で比較的強い性能を維持し、clsAがGZSLで急激な攻撃成功をもたらすことを示す。
これを解決するために,全校正点におけるGZSL精度を完全に排除するクラスバイアス強化攻撃(CBEA)を提案し,さらに概念レベルでは,クラス保存概念攻撃(CPconA)と非クラス保存概念攻撃(NCPconA)の2つの新しい攻撃モードを導入する。
本研究では,過去3年間の各種アーキテクチャを対象とした3つのZSLモデルの評価を行い,ZSLモデルが従来のクラスアタックだけでなく,概念ベースアタックにも脆弱であることを明らかにする。
これらの攻撃は、悪質なアクターが概念を消去したり導入したりすることで、簡単にクラスの予測を操作できる。
本研究は,既存のZSLモデルにおいて,従来のZSLモデルにおいて,対角ロバスト性の向上の必要性を強調した。
関連論文リスト
- Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Improving Performance of Semi-Supervised Learning by Adversarial Attacks [1.675857332621569]
本稿では,最近のSSLアルゴリズムの性能向上を目的とした汎用フレームワークSCARを提案する。
セミスーパービジョンで事前学習したモデルを逆襲することにより、画像の分類の大幅な進歩が示される。
論文 参考訳(メタデータ) (2023-08-08T03:29:43Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - How Robust are Discriminatively Trained Zero-Shot Learning Models? [9.62543698736491]
画像劣化に対する識別的ZSLのロバスト性に関する新しい解析法を提案する。
SUN-C, CUB-C, AWA2-Cの最初のZSL破壊堅牢性データセットをリリースする。
論文 参考訳(メタデータ) (2022-01-26T14:41:10Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。