論文の概要: With Great Backbones Comes Great Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2501.12275v1
- Date: Tue, 21 Jan 2025 16:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:41.963859
- Title: With Great Backbones Comes Great Adversarial Transferability
- Title(参考訳): 巨大なバックボーンは大きな逆転性をもたらす
- Authors: Erik Arakelyan, Karen Hambardzumyan, Davit Papikyan, Pasquale Minervini, Albert Gordo, Isabelle Augenstein, Aram H. Markosyan,
- Abstract要約: マシンビジョンのための自己教師付き学習(SSL)は、表現の堅牢性とモデルパフォーマンスを改善した。
SSLメソッドで調整されたemphResNetやemphViTモデルのようなトレーニング済みのバックボーンは、敵攻撃の脆弱性を継承する可能性がある。
この研究は、メタ情報チューニングの組み合わせの20,000ドルに対して、そのようなモデルの対角的ロバスト性を体系的に評価する。
- 参考スコア(独自算出の注目度): 44.51435595735272
- License:
- Abstract: Advances in self-supervised learning (SSL) for machine vision have improved representation robustness and model performance, giving rise to pre-trained backbones like \emph{ResNet} and \emph{ViT} models tuned with SSL methods such as \emph{SimCLR}. Due to the computational and data demands of pre-training, the utilization of such backbones becomes a strenuous necessity. However, employing these backbones may inherit vulnerabilities to adversarial attacks. While adversarial robustness has been studied under \emph{white-box} and \emph{black-box} settings, the robustness of models tuned on pre-trained backbones remains largely unexplored. Additionally, the role of tuning meta-information in mitigating exploitation risks is unclear. This work systematically evaluates the adversarial robustness of such models across $20,000$ combinations of tuning meta-information, including fine-tuning techniques, backbone families, datasets, and attack types. We propose using proxy models to transfer attacks, simulating varying levels of target knowledge by fine-tuning these proxies with diverse configurations. Our findings reveal that proxy-based attacks approach the effectiveness of \emph{white-box} methods, even with minimal tuning knowledge. We also introduce a naive "backbone attack," leveraging only the backbone to generate adversarial samples, which outperforms \emph{black-box} attacks and rivals \emph{white-box} methods, highlighting critical risks in model-sharing practices. Finally, our ablations reveal how increasing tuning meta-information impacts attack transferability, measuring each meta-information combination.
- Abstract(参考訳): マシンビジョンのための自己教師型学習(SSL)の進歩は、表現の堅牢性とモデルパフォーマンスを改善し、\emph{ResNet} や \emph{ViT} のような事前訓練されたバックボーンが \emph{SimCLR} のようなSSLメソッドで調整されるようになる。
事前学習の計算とデータ要求のため、そのようなバックボーンの利用は厳しい必需品となる。
しかし、これらのバックボーンを使用することは、敵攻撃の脆弱性を継承する可能性がある。
逆向きのロバスト性は \emph{white-box} と \emph{black-box} の設定で研究されているが、事前訓練されたバックボーンで調整されたモデルのロバスト性は、ほとんど探索されていない。
また,攻撃リスク軽減におけるメタ情報チューニングの役割も明らかでない。
この研究は、微調整技術、バックボーンファミリー、データセット、アタックタイプを含む2万ドルのチューニングメタ情報の組み合わせで、そのようなモデルの対角的堅牢性を体系的に評価する。
本稿では,これらのプロキシを様々な構成で微調整することで,ターゲット知識のレベルをシミュレートし,攻撃を伝達するプロキシモデルを提案する。
この結果から,プロキシベースの攻撃は,最小限のチューニング知識をもちながら,emph{white-box}法の有効性に近づいていることが明らかとなった。
また、バックボーンのみを利用して敵対的なサンプルを生成し、モデル共有プラクティスにおける重大なリスクを強調しながら、emph{black-box}攻撃およびemph{white-box}メソッドと競合する。
最後に、チューニングメタ情報の増加が攻撃伝達可能性にどのように影響するかを明らかにし、各メタ情報の組み合わせを測定する。
関連論文リスト
- Learning to Learn Transferable Generative Attack for Person Re-Identification [17.26567195924685]
既存の攻撃は、異なるドメインでトレーニングされたモデルを摂動するクロステスト能力を無視して、クロスデータセットとクロスモデル転送可能性のみを考慮する。
実世界のre-idモデルのロバスト性を調べるために,MTGA法を提案する。
我々のMTGAは平均mAP低下率でSOTA法を21.5%、平均11.3%で上回っている。
論文 参考訳(メタデータ) (2024-09-06T11:57:17Z) - Exploring Frequencies via Feature Mixing and Meta-Learning for Improving Adversarial Transferability [26.159434438078968]
両試料の周波数特性を生かした周波数分解型特徴混合法を提案する。
本研究は, クリーンサンプルの特徴を, 敵の例から抽出した敵の特徴に組み込むことが, 正常に訓練されたモデルに対する攻撃に有効であることが示唆された。
本稿では,メタトレインステップ,メタテストステップ,最終更新を含むクロス周波数メタ最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T06:32:58Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Adversarial Attacks are a Surprisingly Strong Baseline for Poisoning
Few-Shot Meta-Learners [28.468089304148453]
これにより、システムの学習アルゴリズムを騙すような、衝突する入力セットを作れます。
ホワイトボックス環境では、これらの攻撃は非常に成功しており、ターゲットモデルの予測が偶然よりも悪化する可能性があることを示す。
攻撃による「過度な対応」と、攻撃が生成されたモデルと攻撃が転送されたモデルとのミスマッチという2つの仮説を探索する。
論文 参考訳(メタデータ) (2022-11-23T14:55:44Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。