論文の概要: Adversarial Attacks on ML Defense Models Competition
- arxiv url: http://arxiv.org/abs/2110.08042v1
- Date: Fri, 15 Oct 2021 12:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:14:06.646850
- Title: Adversarial Attacks on ML Defense Models Competition
- Title(参考訳): MLディフェンスモデル競争における敵対的攻撃
- Authors: Yinpeng Dong, Qi-An Fu, Xiao Yang, Wenzhao Xiang, Tianyu Pang, Hang
Su, Jun Zhu, Jiayu Tang, Yuefeng Chen, XiaoFeng Mao, Yuan He, Hui Xue, Chao
Li, Ye Liu, Qilong Zhang, Lianli Gao, Yunrui Yu, Xitong Gao, Zhe Zhao, Daquan
Lin, Jiadong Lin, Chuanbiao Song, Zihao Wang, Zhennan Wu, Yang Guo, Jiequan
Cui, Xiaogang Xu, Pengguang Chen
- Abstract要約: 清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
- 参考スコア(独自算出の注目度): 82.37504118766452
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the vulnerability of deep neural networks (DNNs) to adversarial
examples, a large number of defense techniques have been proposed to alleviate
this problem in recent years. However, the progress of building more robust
models is usually hampered by the incomplete or incorrect robustness
evaluation. To accelerate the research on reliable evaluation of adversarial
robustness of the current defense models in image classification, the TSAIL
group at Tsinghua University and the Alibaba Security group organized this
competition along with a CVPR 2021 workshop on adversarial machine learning
(https://aisecure-workshop.github.io/amlcvpr2021/). The purpose of this
competition is to motivate novel attack algorithms to evaluate adversarial
robustness more effectively and reliably. The participants were encouraged to
develop stronger white-box attack algorithms to find the worst-case robustness
of different defenses. This competition was conducted on an adversarial
robustness evaluation platform -- ARES (https://github.com/thu-ml/ares), and is
held on the TianChi platform
(https://tianchi.aliyun.com/competition/entrance/531847/introduction) as one of
the series of AI Security Challengers Program. After the competition, we
summarized the results and established a new adversarial robustness benchmark
at https://ml.cs.tsinghua.edu.cn/ares-bench/, which allows users to upload
adversarial attack algorithms and defense models for evaluation.
- Abstract(参考訳): 敵対的な例に対するディープニューラルネットワーク(DNN)の脆弱性のため、近年、この問題を軽減するために多くの防衛技術が提案されている。
しかし、より堅牢なモデルの構築の進行は、通常不完全または不正な堅牢性評価によって妨げられる。
画像分類における現在の防衛モデルの強固さの信頼性に関する研究を加速するために、清華大学tsailグループとalibabaセキュリティグループは、cvpr 2021 workshop on adversarial machine learning (https://aisecure-workshop.github.io/amlcvpr2021/)とともにこのコンペを主催した。
この競争の目的は、敵の堅牢性をより効果的かつ確実に評価するために、新しい攻撃アルゴリズムを動機付けることである。
参加者は、より強力なホワイトボックス攻撃アルゴリズムを開発し、異なる防御の最悪の堅牢性を見つけることを奨励された。
このコンペティションはAI Security Challengers Programのシリーズの1つとしてTianChiプラットフォーム(https://tianchi.aliyun.com/competition/entrance/531847/introduction)で開催されている。
コンペの後、私たちは結果をまとめ、https://ml.cs.tsinghua.edu.cn/ares-bench/で新しい敵のロバスト性ベンチマークを確立しました。
関連論文リスト
- Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning [13.12397828096428]
敵のロバストネス・アンハードニング(ARU)は、分散トレーニング中にモデルロバストネスを意図的に損なうために、敵のサブセットによって使用される。
本研究は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実証実験である。
論文 参考訳(メタデータ) (2023-10-17T21:38:41Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Based-CE white-box adversarial attack will not work using super-fitting [10.34121642283309]
ディープニューラルネットワーク(DNN)はその強力な性能のため、様々な分野で広く利用されている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
本稿では,モデルスーパーフィット状態を用いた新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T09:23:00Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Towards Evaluating the Robustness of Neural Networks Learned by
Transduction [44.189248766285345]
Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
論文 参考訳(メタデータ) (2021-10-27T19:39:50Z) - Unrestricted Adversarial Attacks on ImageNet Competition [70.8952435964555]
制限のない敵攻撃は一般的で実践的な方向であるが、徹底的に研究されていない。
我々はこの競争を、より効果的に非制限の敵攻撃アルゴリズムを探索するために組織する。
論文 参考訳(メタデータ) (2021-10-17T04:27:15Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。