論文の概要: Backdoor Scanning for Deep Neural Networks through K-Arm Optimization
- arxiv url: http://arxiv.org/abs/2102.05123v1
- Date: Tue, 9 Feb 2021 20:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 18:19:41.096460
- Title: Backdoor Scanning for Deep Neural Networks through K-Arm Optimization
- Title(参考訳): K-Arm最適化による深部ニューラルネットワークのバックドア走査
- Authors: Guangyu Shen, Yingqi Liu, Guanhong Tao, Shengwei An, Qiuling Xu,
Siyuan Cheng, Shiqing Ma, Xiangyu Zhang
- Abstract要約: バックドア攻撃は、ディープラーニングシステムに深刻な脅威をもたらす。
隠された悪意のある振る舞いをモデルに注入し、特別なパターンでスタンプされた任意の入力がそのような振舞いをトリガーする。
バックドア検出のためのK-Arm最適化手法を提案する。
- 参考スコア(独自算出の注目度): 21.130895971166545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Back-door attack poses a severe threat to deep learning systems. It injects
hidden malicious behaviors to a model such that any input stamped with a
special pattern can trigger such behaviors. Detecting back-door is hence of
pressing need. Many existing defense techniques use optimization to generate
the smallest input pattern that forces the model to misclassify a set of benign
inputs injected with the pattern to a target label. However, the complexity is
quadratic to the number of class labels such that they can hardly handle models
with many classes. Inspired by Multi-Arm Bandit in Reinforcement Learning, we
propose a K-Arm optimization method for backdoor detection. By iteratively and
stochastically selecting the most promising labels for optimization with the
guidance of an objective function, we substantially reduce the complexity,
allowing to handle models with many classes. Moreover, by iteratively refining
the selection of labels to optimize, it substantially mitigates the uncertainty
in choosing the right labels, improving detection accuracy. At the time of
submission, the evaluation of our method on over 4000 models in the IARPA
TrojAI competition from round 1 to the latest round 4 achieves top performance
on the leaderboard. Our technique also supersedes three state-of-the-art
techniques in terms of accuracy and the scanning time needed.
- Abstract(参考訳): バックドア攻撃はディープラーニングシステムに深刻な脅威をもたらす。
隠された悪意のある振る舞いをモデルに注入し、特別なパターンでスタンプされた任意の入力がそのような振舞いをトリガーする。
そのため、バックドアの検知は必要となる。
既存の防衛技術の多くは最適化を利用して最小の入力パターンを生成し、そのパターンに注入された良性入力のセットをターゲットラベルに誤分類する。
しかし、複雑性はクラスラベルの数に二乗的であり、多くのクラスでモデルを扱うことができない。
強化学習におけるマルチArm Banditに着想を得た,バックドア検出のためのK-Arm最適化手法を提案する。
目的関数の誘導による最適化のための最も有望なラベルを反復的かつ確率的に選択することにより、複雑性を大幅に低減し、多くのクラスでモデルを扱うことができる。
さらに、最適化するラベルの選択を反復的に精錬することで、適切なラベルを選択する際の不確実性を大幅に軽減し、検出精度を向上させます。
提出時に、IARPA TrojAIコンペティションにおける4000以上のモデルに対する評価をラウンド1から最新のラウンド4まで行い、リーダーボード上で最高のパフォーマンスを達成しました。
また、精度とスキャン時間を3つの最先端技術に取って代わった技術です。
関連論文リスト
- Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Towards Alternative Techniques for Improving Adversarial Robustness:
Analysis of Adversarial Training at a Spectrum of Perturbations [5.18694590238069]
逆行訓練(AT)とその変種は、逆行性摂動に対するニューラルネットワークの堅牢性を改善する進歩を先導している。
私たちは、$epsilon$の値のスペクトルに基づいてトレーニングされたモデルに焦点を当てています。
ATの代替改善は、そうでなければ1ドル(約1万2000円)も出なかったでしょう。
論文 参考訳(メタデータ) (2022-06-13T22:01:21Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - EX-RAY: Distinguishing Injected Backdoor from Natural Features in Neural
Networks by Examining Differential Feature Symmetry [20.62635238886276]
バックドア攻撃は、トリガーに埋め込まれた入力が攻撃者が望むターゲットラベルに誤分類されるようなモデルに悪意のある振る舞いを注入する。
2つのクラスを分離する最小の機能集合を識別する新しい対称特徴差分法を開発した。
我々は、TrojAIラウンド2-4とImageNet上のいくつかのモデルから、クリーンモデルとトロイの木馬モデルの両方を含む何千ものモデル上の技術を評価します。
論文 参考訳(メタデータ) (2021-03-16T03:07:31Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z) - PointHop++: A Lightweight Learning Model on Point Sets for 3D
Classification [55.887502438160304]
ポイントホップ法は、Zhangらによって、教師なし特徴抽出を伴う3Dポイントクラウド分類のために提案された。
1)モデルパラメータ数の観点からモデルの複雑さを減らし,2)クロスエントロピー基準に基づいて自動的に識別特徴を順序付けする。
ModelNet40ベンチマークデータセットで実施した実験により、PointHop++法がディープニューラルネットワーク(DNN)ソリューションと同等に動作し、他の教師なし特徴抽出法を上回る性能を示す。
論文 参考訳(メタデータ) (2020-02-09T04:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。