論文の概要: SoK: The Last Line of Defense: On Backdoor Defense Evaluation
- arxiv url: http://arxiv.org/abs/2511.13143v1
- Date: Mon, 17 Nov 2025 08:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.07871
- Title: SoK: The Last Line of Defense: On Backdoor Defense Evaluation
- Title(参考訳): SoK:最後の防衛ライン:バックドアの防衛評価について
- Authors: Gorka Abad, Marina Krček, Stefanos Koffas, Behrad Tajalli, Marco Arazzi, Roberto Riaño, Xiaoyun Xu, Zhuoran Liu, Antonino Nocera, Stjepan Picek,
- Abstract要約: バックドア攻撃は、悪意のある入力によってアクティベート可能な隠れた脆弱性を埋め込むことで、ディープラーニングモデルに重大な脅威をもたらす。
本研究は,総合的な文献レビューと実証的評価を通じて,バックドアディフェンスの系統的(メタ-)分析を行う。
私たちは2018年から2025年にかけて発行された183件のバックドア・ディフェンス・ペーパーを分析した。
- 参考スコア(独自算出の注目度): 21.126129826672894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks pose a significant threat to deep learning models by implanting hidden vulnerabilities that can be activated by malicious inputs. While numerous defenses have been proposed to mitigate these attacks, the heterogeneous landscape of evaluation methodologies hinders fair comparison between defenses. This work presents a systematic (meta-)analysis of backdoor defenses through a comprehensive literature review and empirical evaluation. We analyzed 183 backdoor defense papers published between 2018 and 2025 across major AI and security venues, examining the properties and evaluation methodologies of these defenses. Our analysis reveals significant inconsistencies in experimental setups, evaluation metrics, and threat model assumptions in the literature. Through extensive experiments involving three datasets (MNIST, CIFAR-100, ImageNet-1K), four model architectures (ResNet-18, VGG-19, ViT-B/16, DenseNet-121), 16 representative defenses, and five commonly used attacks, totaling over 3\,000 experiments, we demonstrate that defense effectiveness varies substantially across different evaluation setups. We identify critical gaps in current evaluation practices, including insufficient reporting of computational overhead and behavior under benign conditions, bias in hyperparameter selection, and incomplete experimentation. Based on our findings, we provide concrete challenges and well-motivated recommendations to standardize and improve future defense evaluations. Our work aims to equip researchers and industry practitioners with actionable insights for developing, assessing, and deploying defenses to different systems.
- Abstract(参考訳): バックドア攻撃は、悪意のある入力によってアクティベート可能な隠れた脆弱性を埋め込むことで、ディープラーニングモデルに重大な脅威をもたらす。
これらの攻撃を緩和するために多くの防御策が提案されているが、評価手法の不均一な景観は、防御の公正な比較を妨げる。
本研究は,総合的な文献レビューと実証的評価を通じて,バックドアディフェンスの系統的(メタ-)分析を行う。
我々は、2018年から2025年にかけて発行された183件のバックドア・ディフェンス・ペーパーを分析し、これらのディフェンスの特性と評価方法を検討した。
本分析の結果,文献における実験装置,評価指標,脅威モデル仮定に重大な矛盾があることが判明した。
3つのデータセット(MNIST, CIFAR-100, ImageNet-1K)、4つのモデルアーキテクチャ(ResNet-18, VGG-19, ViT-B/16, DenseNet-121)、16の代表的なディフェンス、5つの一般的な攻撃(合計3万以上の実験)を含む広範囲な実験を通して、防衛効果は異なる評価設定によって大きく異なることを示した。
本研究は, 異常条件下での計算オーバーヘッドと挙動の報告不足, ハイパーパラメータ選択のバイアス, 不完全な実験など, 現状評価の実践における重要なギャップを同定する。
本研究は,具体的課題と,今後の防衛評価の標準化と改善に向けたモチベーションを提示する。
我々の研究は、研究者や業界の実践者たちに、異なるシステムに対する防衛を開発し、評価し、展開するための実用的な洞察を与えることを目的としています。
関連論文リスト
- A Critical Evaluation of Defenses against Prompt Injection Attacks [95.81023801370073]
大型言語モデル (LLM) はインジェクション攻撃に弱い。
いくつかの防衛策が提案され、しばしばこれらの攻撃をうまく緩和すると主張した。
既存の研究は、これらの防衛を評価するための原則的なアプローチを欠いていると論じる。
論文 参考訳(メタデータ) (2025-05-23T19:39:56Z) - Revisiting Model Inversion Evaluation: From Misleading Standards to Reliable Privacy Assessment [63.07424521895492]
モデル反転(MI)攻撃は、機械学習モデルTへのアクセスを利用して、プライベートトレーニングデータから情報を再構築することを目的としている。
このような攻撃に対する標準的な評価フレームワークは、Tと同じタスク設計で訓練された評価モデルEに依存している。
このフレームワークはMI研究の進歩を評価するためのデファクトスタンダードとなり、近年のMI攻撃や防衛のほとんどすべてで問題なく使用されている。
論文 参考訳(メタデータ) (2025-05-06T13:32:12Z) - Decoding FL Defenses: Systemization, Pitfalls, and Remedies [16.907513505608666]
FL(Federated Learning)のディフェンスを評価するためのガイドラインはありません。
FLディフェンスの総合的なシステム化を3次元に沿って設計する。
我々は,トップレベル防衛紙50点を調査し,それらの評価設定でよく使用されるコンポーネントを特定した。
論文 参考訳(メタデータ) (2025-02-03T23:14:02Z) - A Survey of Defenses Against AI-Generated Visual Media: Detection,Disruption, and Authentication [29.96910246392549]
深層生成モデルは様々なコンピュータビジョンアプリケーションで顕著な性能を示した。
これらのモデルは、誤情報、偽造、著作権侵害などの悪意ある目的のために使用されることがある。
本稿では,AI生成したビジュアルメディアに対する防衛研究の体系的かつタイムリーなレビューを行う。
論文 参考訳(メタデータ) (2024-07-15T09:46:02Z) - Evaluating Adversarial Robustness: A Comparison Of FGSM, Carlini-Wagner Attacks, And The Role of Distillation as Defense Mechanism [0.0]
本研究では、画像分類に使用されるディープニューラルネットワーク(DNN)を対象とする敵攻撃について検討する。
本研究は,FGSM (Fast Gradient Sign Method) とCarini-Wagner (CW) の2つの攻撃手法の分岐を理解することに焦点を当てている。
本研究は,FGSMおよびCW攻撃に対する防御機構として,防衛蒸留の堅牢性を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:51:58Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Evaluating the Adversarial Robustness of Adaptive Test-time Defenses [60.55448652445904]
このような適応型テストタイムディフェンスを分類し、その潜在的なメリットと欠点を説明します。
残念なことに、適切な評価を行うと、静的モデルが大幅に改善されることはない。
推論コストを同時に増加しながら、基盤となる静的モデルを弱めるものもあります。
論文 参考訳(メタデータ) (2022-02-28T12:11:40Z) - A Comprehensive Evaluation Framework for Deep Model Robustness [44.20580847861682]
ディープニューラルネットワーク(DNN)は、幅広いアプリケーションで顕著なパフォーマンスを達成しています。
彼らは敵の防御を動機付ける敵の例に弱い。
本稿では,包括的で厳密で一貫性のある評価指標を含むモデル評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-24T01:04:25Z) - On Adaptive Attacks to Adversarial Example Defenses [123.32678153377915]
本稿では、敵の事例に対して、防御に対する適応攻撃を行うために必要な方法論とアプローチを概説する。
これらの分析が、敵の事例に対して適切な防御攻撃を行うためのガイダンスとして役立てられることを期待している。
論文 参考訳(メタデータ) (2020-02-19T18:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。