論文の概要: Devling into Adversarial Transferability on Image Classification: Review, Benchmark, and Evaluation
- arxiv url: http://arxiv.org/abs/2602.23117v1
- Date: Thu, 26 Feb 2026 15:30:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.753468
- Title: Devling into Adversarial Transferability on Image Classification: Review, Benchmark, and Evaluation
- Title(参考訳): 画像分類における逆転性への展開:レビュー,ベンチマーク,評価
- Authors: Xiaosen Wang, Zhijin Ge, Bohan Liu, Zheng Fang, Fengfan Zhou, Ruixuan Zhang, Shaokang Wang, Yuyang Luo,
- Abstract要約: 逆転性(Adversa transferability)とは、代理モデルで生成された逆転例の能力で、別の、露呈しない犠牲者モデルを欺くことを指す。
本研究では、転送ベースの攻撃を評価するための標準フレームワークと基準が欠如していることを明らかにする。
我々はこれらの攻撃を評価するためのベンチマークとして設計された包括的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.423783318201778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial transferability refers to the capacity of adversarial examples generated on the surrogate model to deceive alternate, unexposed victim models. This property eliminates the need for direct access to the victim model during an attack, thereby raising considerable security concerns in practical applications and attracting substantial research attention recently. In this work, we discern a lack of a standardized framework and criteria for evaluating transfer-based attacks, leading to potentially biased assessments of existing approaches. To rectify this gap, we have conducted an exhaustive review of hundreds of related works, organizing various transfer-based attacks into six distinct categories. Subsequently, we propose a comprehensive framework designed to serve as a benchmark for evaluating these attacks. In addition, we delineate common strategies that enhance adversarial transferability and highlight prevalent issues that could lead to unfair comparisons. Finally, we provide a brief review of transfer-based attacks beyond image classification.
- Abstract(参考訳): 敵対的転送可能性とは、代理モデル上で生成された敵の例の能力を指して、別の、未公表の犠牲者モデルを欺くことである。
この特性は、攻撃中に被害者モデルに直接アクセスする必要をなくし、実用的なアプリケーションにかなりのセキュリティ上の懸念を生じさせ、近年、かなりの研究の注目を集めている。
本研究では,トランスファーベースの攻撃を評価するための標準フレームワークと基準が欠如していることに気付き,既存のアプローチに対するバイアスのある評価につながる可能性がある。
このギャップを是正するために、我々は、何百もの関連作品の徹底的なレビューを行い、様々なトランスファーベースの攻撃を6つの異なるカテゴリに分類した。
次に、これらの攻撃を評価するためのベンチマークとして機能するように設計された包括的フレームワークを提案する。
さらに、敵の移動可能性を高める共通戦略を明確化し、不公平な比較につながる可能性のある問題を強調します。
最後に、画像分類を超えた転送ベースの攻撃について、簡単なレビューを行う。
関連論文リスト
- Quantifying the Risk of Transferred Black Box Attacks [0.0]
ニューラルネットワークは、セキュリティ関連製品など、さまざまなアプリケーションに広く普及している。
本稿では,移動攻撃に対するレジリエンステストの複雑さについて検討する。
本稿では,CKA(Centered Kernel Alignment)の類似性に基づいて戦略的に選択された代理モデルを用いたレジリエンステストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-07T09:34:43Z) - On Transfer-based Universal Attacks in Pure Black-box Setting [94.92884394009288]
攻撃性能における対象モデルデータの事前知識とクラス数の役割について検討する。
また、分析に基づいていくつかの興味深い洞察を与え、先行が伝達可能性スコアの過大評価を引き起こすことを示した。
論文 参考訳(メタデータ) (2025-04-11T10:41:20Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Revisiting Transferable Adversarial Images: Systemization, Evaluation, and New Insights [33.09769747941402]
トランスファー可能な敵画像は、現実のブラックボックス攻撃シナリオにおけるコンピュータビジョンシステムに対する重要なセキュリティ上の懸念を引き起こす。
本稿では,一般的な機械学習パイプラインを中心に,転送攻撃を5つのカテゴリに分類する。
第1回総合評価では,11個の代表的防衛に対する23個の代表的攻撃が報告された。
論文 参考訳(メタデータ) (2023-10-18T10:06:42Z) - Towards Good Practices in Evaluating Transfer Adversarial Attacks [23.40245805066479]
我々は、ImageNet上の9つの防御に対する23の代表的な攻撃を網羅し、転送攻撃の包括的評価を行った。
特に,既存の攻撃を5つのカテゴリに分類することを提案する。
また、さまざまな非受容性指標を採用し、よりきめ細かな特徴を探求することで、ステルスネスに特に注意を払っています。
論文 参考訳(メタデータ) (2022-11-17T14:40:31Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Transferability Ranking of Adversarial Examples [20.41013432717447]
本稿では,転送攻撃処理を洗練させるランキング戦略を提案する。
多様な代理モデルの集合を利用することで, 逆例の転送可能性を予測することができる。
提案手法を用いて, 対向例の移動率を, ランダムな選択から, ほぼ上界レベルまで20%に引き上げることができた。
論文 参考訳(メタデータ) (2022-08-23T11:25:16Z) - An Intermediate-level Attack Framework on The Basis of Linear Regression [89.85593878754571]
本論文はECCVにおいて,いくつかのベースライン対向例の転送性を改善するため,中間レベルアタック(中間レベルアタック)を提案し,本研究を実質的に拡張するものである。
我々は,中間レベルの相違点(対角的特徴と良性的特徴)から,対角的例の分類的損失への直接的な線形写像の確立を提唱する。
1) 様々な線形回帰モデルがマッピングを確立するために考慮可能であること,2) 最終的に得られた中間レベル差の大きさが逆転率と線形に相関していること,3) ベースラインアタックを複数回実行することで,さらなる性能向上が達成できること,などが示される。
論文 参考訳(メタデータ) (2022-03-21T03:54:53Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z) - Protecting Classifiers From Attacks [0.41942958779358663]
マルウェア検出、自動運転システム、不正検出などの複数の領域において、分類アルゴリズムは攻撃を受けやすい。
本稿では,攻撃者の行動の不確実性を考慮したベイズ決定論の枠組みを提案する。
グローバルに、悪意のある攻撃に対して統計的分類アルゴリズムを強固にすることができる。
論文 参考訳(メタデータ) (2020-04-18T21:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。