論文の概要: Adversarial Pruning: A Survey and Benchmark of Pruning Methods for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2409.01249v1
- Date: Mon, 2 Sep 2024 13:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:37:11.072725
- Title: Adversarial Pruning: A Survey and Benchmark of Pruning Methods for Adversarial Robustness
- Title(参考訳): 逆算法:逆算法ロバスト性判定法の検討と評価
- Authors: Giorgio Piras, Maura Pintor, Ambra Demontis, Battista Biggio, Giorgio Giacinto, Fabio Roli,
- Abstract要約: 近年の研究では、敵の例に対する堅牢性を保ちながら、ネットワークのサイズを小さくするニューラルネットワークプルーニング技術が提案されている。
これらの手法には複雑で明瞭な設計が含まれており、違いを分析して公正かつ正確な比較を確立することは困難である。
そこで我々は,パイプライン,いつ産卵するべきか,具体例,どのように産卵するべきかという2つの主要な次元に基づいて分類する新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 16.623648447423438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has proposed neural network pruning techniques to reduce the size of a network while preserving robustness against adversarial examples, i.e., well-crafted inputs inducing a misclassification. These methods, which we refer to as adversarial pruning methods, involve complex and articulated designs, making it difficult to analyze the differences and establish a fair and accurate comparison. In this work, we overcome these issues by surveying current adversarial pruning methods and proposing a novel taxonomy to categorize them based on two main dimensions: the pipeline, defining when to prune; and the specifics, defining how to prune. We then highlight the limitations of current empirical analyses and propose a novel, fair evaluation benchmark to address them. We finally conduct an empirical re-evaluation of current adversarial pruning methods and discuss the results, highlighting the shared traits of top-performing adversarial pruning methods, as well as common issues. We welcome contributions in our publicly-available benchmark at https://github.com/pralab/AdversarialPruningBenchmark
- Abstract(参考訳): 近年の研究では、ニューラルネットワークのプルーニング技術が提案され、ネットワークのサイズを減らし、敵の例に対する堅牢性を保っている。
これらの手法は, 複雑で明瞭な設計を伴い, 相違を解析し, 公正かつ正確な比較を行うのが困難である。
本研究では,これらの課題を,現在の敵作法を調査し,パイプライン,いつ産卵するか,具体例,どのように産卵するかという2つの主要な次元に基づいて分類する新しい分類法を提案することによって克服する。
次に、現在の経験分析の限界を強調し、それに対応するための新しい公正な評価ベンチマークを提案する。
最終的に,現在の逆解析手法の実証的再評価を行い,その結果について考察し,高い性能の逆解析手法の共通特性と共通問題を明らかにする。
https://github.com/pralab/AdversarialPruningBenchmarkで公開されているベンチマークへのコントリビューションを歓迎します。
関連論文リスト
- Are We Wasting Time? A Fast, Accurate Performance Evaluation Framework
for Knowledge Graph Link Predictors [4.31947784387967]
より大規模な知識グラフでは、ランク付けプロセスは急速に重くなります。
従来のアプローチでは、エンティティのランダムサンプリングを使用して、メソッドによって予測または提案されるリンクの品質を評価していた。
得られた評価基準が真の結果を適切に反映していないため,本手法には深刻な限界があることが示されている。
本稿では,リレーショナルリコメンデータを用いて候補の選択を誘導するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-25T15:44:46Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Samples on Thin Ice: Re-Evaluating Adversarial Pruning of Neural
Networks [15.55615069378845]
近年の研究では、逆算法はスパースネットワークを生成できるが、逆算例に対する堅牢性は維持できると主張している。
本研究は,まず,3つの最先端逆算法を再評価し,その頑健さが実際に過大評価されたことを示す。
我々は,この直感が今後の作業において,より効果的な対向的プルーニング手法の設計につながる可能性について論じる。
論文 参考訳(メタデータ) (2023-10-12T06:50:43Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - ADDMU: Detection of Far-Boundary Adversarial Examples with Data and
Model Uncertainty Estimation [125.52743832477404]
AED(Adversarial Examples Detection)は、敵攻撃に対する重要な防御技術である。
本手法は, 正逆検出とFB逆検出の2種類の不確実性推定を組み合わせた新しい手法である textbfADDMU を提案する。
提案手法は,各シナリオにおいて,従来の手法よりも3.6と6.0のEmphAUC点が優れていた。
論文 参考訳(メタデータ) (2022-10-22T09:11:12Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Time to Focus: A Comprehensive Benchmark Using Time Series Attribution
Methods [4.9449660544238085]
本論文は時系列解析といくつかの最先端属性手法のベンチマークに焦点をあてる。
本実験では, 勾配および摂動に基づく帰属法について検討した。
その結果,最も適した帰属法を選択することは,所望のユースケースと強く相関していることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T10:06:13Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - What is the State of Neural Network Pruning? [12.50128492336137]
我々は, 刈り取りへのアプローチの概観を含む, 文献のメタ分析を行う。
コミュニティは、標準化されたベンチマークとメトリクスの欠如に悩まされています。
我々は,プルーニング手法の標準化評価を容易にするオープンソースフレームワークであるShrinkBenchを紹介する。
論文 参考訳(メタデータ) (2020-03-06T05:06:12Z) - Benchmarking Network Embedding Models for Link Prediction: Are We Making
Progress? [84.43405961569256]
我々はリンク予測のためのネットワーク埋め込み手法の最先端について光を当てた。
私たちは、一貫した評価パイプラインを使用して、過去数年間でわずかに進歩しただけであることを示しています。
我々は、標準化された評価ツールがこの状況を修復し、この分野の将来的な進歩を促進することができると論じている。
論文 参考訳(メタデータ) (2020-02-25T16:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。