論文の概要: Anti-Bandit Neural Architecture Search for Model Defense
- arxiv url: http://arxiv.org/abs/2008.00698v2
- Date: Wed, 5 Aug 2020 08:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 05:56:47.719324
- Title: Anti-Bandit Neural Architecture Search for Model Defense
- Title(参考訳): モデル防御のための反バンド型ニューラルアーキテクチャ探索
- Authors: Hanlin Chen, Baochang Zhang, Song Xue, Xuan Gong, Hong Liu, Rongrong
Ji, David Doermann
- Abstract要約: ディープ畳み込みニューラルネットワーク(DCNN)は、機械学習において最高のパフォーマーとして支配されているが、敵の攻撃によって挑戦される可能性がある。
本稿では,ブロック,ウェイトフリー操作,ガボルフィルタ,畳み込みの包括的探索に基づくニューラルアーキテクチャサーチ(NAS)による敵攻撃を防御する。
- 参考スコア(独自算出の注目度): 78.49793059599673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (DCNNs) have dominated as the best
performers in machine learning, but can be challenged by adversarial attacks.
In this paper, we defend against adversarial attacks using neural architecture
search (NAS) which is based on a comprehensive search of denoising blocks,
weight-free operations, Gabor filters and convolutions. The resulting
anti-bandit NAS (ABanditNAS) incorporates a new operation evaluation measure
and search process based on the lower and upper confidence bounds (LCB and
UCB). Unlike the conventional bandit algorithm using UCB for evaluation only,
we use UCB to abandon arms for search efficiency and LCB for a fair competition
between arms. Extensive experiments demonstrate that ABanditNAS is faster than
other NAS methods, while achieving an $8.73\%$ improvement over prior arts on
CIFAR-10 under PGD-$7$.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(deep convolutional neural networks, dcnns)は、機械学習において最高のパフォーマーとして支配されているが、敵の攻撃によって挑戦することができる。
本稿では,ニューラル・アーキテクチャ・サーチ(nas)を用いて,消音ブロックの包括的探索,重みなし演算,ガボールフィルタ,畳み込みに基づく敵対的攻撃を防御する。
結果として得られた反帯域nas(abanditnas)は、下層および上層信頼境界(lcbおよびucb)に基づく新しい動作評価尺度および探索処理を組み込む。
評価のみに UCB を用いる従来のバンドイットアルゴリズムとは異なり,検索効率には UCB を用い,腕間の公正競争には LCB を用いる。
大規模な実験では、ABanditNASは他のNAS法よりも高速であり、PGD-$7$でCIFAR-10の先行技術よりも8.73\%向上している。
関連論文リスト
- DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - Robust Neural Architecture Search [19.214462477848535]
我々は、新しいNAS手法、Robust Neural Architecture Search (RNAS)を提案する。
精度とロバスト性のバランスをとるために正規化項を設計するために、RNASは高い精度と良好なロバスト性の両方でアーキテクチャを生成する。
実験により、RNASは画像分類と敵攻撃の両方において最先端(SOTA)性能を達成することが示された。
論文 参考訳(メタデータ) (2023-04-06T03:21:24Z) - RNAS-CL: Robust Neural Architecture Search by Cross-Layer Knowledge
Distillation [3.958215414191896]
本研究では,NASの頑健さを教師から学習することで,NASの堅牢性を向上させる新しいNASアルゴリズムを提案する。
実験の結果、RNAS-CLの有効性が証明され、RNAS-CLが小さく堅牢なニューラルアーキテクチャを生み出すことが示されている。
論文 参考訳(メタデータ) (2023-01-19T14:22:44Z) - Towards One Shot Search Space Poisoning in Neural Architecture Search [0.0]
ニューラルネットワーク探索 (NAS) アルゴリズムであるENAS (Efficient NAS) の, 元の検索空間に対するデータ中毒攻撃に対するロバスト性を評価する。
我々は、ENASコントローラの設計上の欠陥を利用して、分類タスクにおける予測性能を低下させる手法を実証的に実証した。
論文 参考訳(メタデータ) (2021-11-13T16:07:00Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - BN-NAS: Neural Architecture Search with Batch Normalization [116.47802796784386]
本稿では,Batch Normalization(BN-NAS)を用いたニューラルアーキテクチャサーチ(BN-NAS)を提案し,ニューラルアーキテクチャサーチ(NAS)を高速化する。
BN-NASはNASにおけるモデルトレーニングと評価に必要な時間を著しく短縮することができる。
論文 参考訳(メタデータ) (2021-08-16T23:23:21Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - On Adversarial Robustness: A Neural Architecture Search perspective [20.478741635006113]
この研究は、アーキテクチャの観点から純粋に敵対的ロバスト性を理解するための最初の大規模研究である。
単純なアンサンブルによるDARTSの探索空間におけるランダムサンプリングにより,PGD攻撃に対するロバスト性を約12%向上できることを示す。
我々は, SoTA の精度向上に人気があるNASが, 対人訓練を一切行わないフリーアドオンとして, 対人精度を提供できることを示した。
論文 参考訳(メタデータ) (2020-07-16T16:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。