論文の概要: Minimum-Norm Adversarial Examples on KNN and KNN-Based Models
- arxiv url: http://arxiv.org/abs/2003.06559v1
- Date: Sat, 14 Mar 2020 05:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:02:30.267971
- Title: Minimum-Norm Adversarial Examples on KNN and KNN-Based Models
- Title(参考訳): KNNモデルとKNNモデルにおける最小ノルム対応例
- Authors: Chawin Sitawarin, David Wagner
- Abstract要約: 我々は、kNNとkNNベースの防御に対する勾配に基づく攻撃を提案する。
私たちは、テストしたすべてのモデルにおいて、攻撃が彼らのメソッドより優れていることを実証します。
この攻撃が、kNNとその変異体の堅牢性を評価するための新しいベースラインとして使用できることを願っている。
- 参考スコア(独自算出の注目度): 7.4297019016687535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the robustness against adversarial examples of kNN classifiers and
classifiers that combine kNN with neural networks. The main difficulty lies in
the fact that finding an optimal attack on kNN is intractable for typical
datasets. In this work, we propose a gradient-based attack on kNN and kNN-based
defenses, inspired by the previous work by Sitawarin & Wagner [1]. We
demonstrate that our attack outperforms their method on all of the models we
tested with only a minimal increase in the computation time. The attack also
beats the state-of-the-art attack [2] on kNN when k > 1 using less than 1% of
its running time. We hope that this attack can be used as a new baseline for
evaluating the robustness of kNN and its variants.
- Abstract(参考訳): 我々は、kNNとニューラルネットワークを組み合わせたkNN分類器と分類器の逆例に対する堅牢性について検討する。
主な難点は、kNNに対する最適な攻撃を見つけることは、典型的なデータセットにとって難解であるという事実にある。
本研究では、Sitawarin & Wagner [1] の以前の研究に触発された、kNN および kNN ベースの防御に対する勾配に基づく攻撃を提案する。
我々の攻撃は、計算時間を最小限に増やすだけで、テストしたすべてのモデルにおいて、彼らのメソッドよりも優れていることを実証する。
この攻撃は、k > 1 が実行時間の 1% 未満の場合に、kn の最先端攻撃 [2] を打ち破る。
この攻撃が、kNNとその変異体の堅牢性を評価するための新しいベースラインとして使用できることを願っている。
関連論文リスト
- Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Security-Aware Approximate Spiking Neural Networks [0.0]
AxSNNの構造的パラメータと近似レベルを2塩基勾配と2つのニューロモルフィックアタックで解析した。
我々は,AxSNNのセキュリティのための2つの新しい防御手法,すなわち精度スケーリングと近似量子化対応フィルタリングを提案する。
以上の結果から,AxSNNはAccSNNよりも敵攻撃を受けやすいが,精度スケーリングとAQFはAxSNNの堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-01-12T19:23:15Z) - Attacking the Spike: On the Transferability and Security of Spiking
Neural Networks to Adversarial Examples [19.227133993690504]
スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と近年の分類性能の進歩に多くの注目を集めている。
従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
我々は,SNNに対するホワイトボックス攻撃の成功は,下層のサロゲート勾配技術に大きく依存していることを示す。
論文 参考訳(メタデータ) (2022-09-07T17:05:48Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - ZeBRA: Precisely Destroying Neural Networks with Zero-Data Based
Repeated Bit Flip Attack [10.31732879936362]
我々は、ディープニューラルネットワーク(DNN)を正確に破壊するゼロデータベースの繰り返しビットフリップアタック(ZeBRA)を提案する。
我々のアプローチは、DNNの安全のために敵の重量攻撃をより致命的なものにしている。
論文 参考訳(メタデータ) (2021-11-01T16:44:20Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - ASK: Adversarial Soft k-Nearest Neighbor Attack and Defense [25.066976298046043]
K-Nearest Neighbor (kNN)ベースのディープラーニング手法は、その単純さと幾何学的解釈性から、多くの応用に適用されている。
我々は、より効果的なkNN攻撃戦略を設計し、より優れた防御策を開発するために、Adrial Soft kNNの損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T17:58:59Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。