論文の概要: ASK: Adversarial Soft k-Nearest Neighbor Attack and Defense
- arxiv url: http://arxiv.org/abs/2106.14300v1
- Date: Sun, 27 Jun 2021 17:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 13:52:31.042597
- Title: ASK: Adversarial Soft k-Nearest Neighbor Attack and Defense
- Title(参考訳): ASK:敵のソフトk-Nearest隣人攻撃と防衛
- Authors: Ren Wang, Tianqi Chen, Philip Yao, Sijia Liu, Indika Rajapakse, Alfred
Hero
- Abstract要約: K-Nearest Neighbor (kNN)ベースのディープラーニング手法は、その単純さと幾何学的解釈性から、多くの応用に適用されている。
我々は、より効果的なkNN攻撃戦略を設計し、より優れた防御策を開発するために、Adrial Soft kNNの損失を提案する。
- 参考スコア(独自算出の注目度): 25.066976298046043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: K-Nearest Neighbor (kNN)-based deep learning methods have been applied to
many applications due to their simplicity and geometric interpretability.
However, the robustness of kNN-based classification models has not been
thoroughly explored and kNN attack strategies are underdeveloped. In this
paper, we propose an Adversarial Soft kNN (ASK) loss to both design more
effective kNN attack strategies and to develop better defenses against them.
Our ASK loss approach has two advantages. First, ASK loss can better
approximate the kNN's probability of classification error than objectives
proposed in previous works. Second, the ASK loss is interpretable: it preserves
the mutual information between the perturbed input and the kNN of the
unperturbed input. We use the ASK loss to generate a novel attack method called
the ASK-Attack (ASK-Atk), which shows superior attack efficiency and accuracy
degradation relative to previous kNN attacks. Based on the ASK-Atk, we then
derive an ASK-Defense (ASK-Def) method that optimizes the worst-case training
loss induced by ASK-Atk.
- Abstract(参考訳): k-nearest neighbor(knn)ベースのディープラーニング手法は、単純さと幾何学的解釈性から、多くのアプリケーションに適用されている。
しかし、kNNに基づく分類モデルの堅牢性は十分に調べられておらず、kNN攻撃戦略は未開発である。
本稿では、より効果的なkNN攻撃戦略を設計し、より優れた防御策を開発するために、ASK(Adversarial Soft kNN)の損失を提案する。
ASK損失アプローチには2つの利点があります。
まず、ASK損失は、以前の研究で提案された目的よりも、kNNの分類誤差の確率を近似することができる。
第二に、ASK損失は解釈可能であり、摂動入力と摂動入力のkNN間の相互情報を保存する。
我々はASK損失を利用してASK-Attack(ASK-Atk)と呼ばれる新しい攻撃手法を作成し、従来のkNN攻撃と比較して攻撃効率と精度の低下を示す。
ASK-Atkに基づいて、ASK-Defense(ASK-Def)法を導出し、ASK-Atkによる最悪のトレーニング損失を最適化する。
関連論文リスト
- Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Dynamics-Aware Loss for Learning with Label Noise [73.75129479936302]
ディープニューラルネットワーク(DNN)にラベルノイズが深刻な脅威をもたらす
本稿では,この問題を解決するためにDAL(Dynamics-Aware Los)を提案する。
詳細な理論的解析と広範な実験結果の両方が,本手法の優位性を示している。
論文 参考訳(メタデータ) (2023-03-21T03:05:21Z) - Security-Aware Approximate Spiking Neural Networks [0.0]
AxSNNの構造的パラメータと近似レベルを2塩基勾配と2つのニューロモルフィックアタックで解析した。
我々は,AxSNNのセキュリティのための2つの新しい防御手法,すなわち精度スケーリングと近似量子化対応フィルタリングを提案する。
以上の結果から,AxSNNはAccSNNよりも敵攻撃を受けやすいが,精度スケーリングとAQFはAxSNNの堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-01-12T19:23:15Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Is Approximation Universally Defensive Against Adversarial Attacks in
Deep Neural Networks? [0.0]
本稿では, 最先端の近似乗算器を用いて, 異なる近似DNNアクセラレータ (AxDNN) の逆解析を行う。
以上の結果から,AxDNNに対する敵対攻撃は53%の精度低下を引き起こすが,同一の攻撃は精度低下をほとんど起こさない可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-02T19:01:36Z) - Deep Adversarially-Enhanced k-Nearest Neighbors [16.68075044326343]
DkNNよりも高いロバスト性を実現するためのDAEkNN(Deep Adversarially-Enhanced k-Nearest Neighbors)法を提案する。
DAEkNNはMNISTとCIFAR-10データセットのロバスト性とロバスト性-精度のトレードオフの両方を改善している。
論文 参考訳(メタデータ) (2021-08-15T19:18:53Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Minimum-Norm Adversarial Examples on KNN and KNN-Based Models [7.4297019016687535]
我々は、kNNとkNNベースの防御に対する勾配に基づく攻撃を提案する。
私たちは、テストしたすべてのモデルにおいて、攻撃が彼らのメソッドより優れていることを実証します。
この攻撃が、kNNとその変異体の堅牢性を評価するための新しいベースラインとして使用できることを願っている。
論文 参考訳(メタデータ) (2020-03-14T05:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。