論文の概要: Training-Time Attacks against k-Nearest Neighbors
- arxiv url: http://arxiv.org/abs/2208.07272v1
- Date: Mon, 15 Aug 2022 15:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 15:02:57.379567
- Title: Training-Time Attacks against k-Nearest Neighbors
- Title(参考訳): kネアレスト近隣者に対する訓練時間攻撃
- Authors: Ara Vartanian, Will Rosenbaum, Scott Alfeld
- Abstract要約: 最も近い隣り合う手法は、分類タスクや他のデータ分析手法のサブルーチンとして一般的に使用される。
我々はこの目標を、$k$-Nearest Neighbor分類(k$NN)に対するトレーニングセットデータ挿入攻撃を実行するタスクに当てる。
- 参考スコア(独自算出の注目度): 5.027571997864706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nearest neighbor-based methods are commonly used for classification tasks and
as subroutines of other data-analysis methods. An attacker with the capability
of inserting their own data points into the training set can manipulate the
inferred nearest neighbor structure. We distill this goal to the task of
performing a training-set data insertion attack against $k$-Nearest Neighbor
classification ($k$NN). We prove that computing an optimal training-time
(a.k.a. poisoning) attack against $k$NN classification is NP-Hard, even when $k
= 1$ and the attacker can insert only a single data point. We provide an
anytime algorithm to perform such an attack, and a greedy algorithm for general
$k$ and attacker budget. We provide theoretical bounds and empirically
demonstrate the effectiveness and practicality of our methods on synthetic and
real-world datasets. Empirically, we find that $k$NN is vulnerable in practice
and that dimensionality reduction is an effective defense. We conclude with a
discussion of open problems illuminated by our analysis.
- Abstract(参考訳): 最も近い隣り合う手法は、分類タスクや他のデータ分析手法のサブルーチンとして一般的に使用される。
トレーニングセットに自身のデータポイントを挿入する能力を持つ攻撃者は、推定される隣接構造体を操作できる。
この目標を、k$-nearestの隣の分類(k$nn)に対して、トレーニングセットのデータ挿入攻撃を実行するタスクに絞り込む。
k = 1$で攻撃者が1つのデータポイントだけ挿入できる場合でも、k$nn分類に対する最適なトレーニング時間(すなわち中毒)の計算はnpハードであることが証明される。
このような攻撃を行うためのanytimeアルゴリズムと、一般的な$k$と攻撃予算のためのgreedyアルゴリズムを提供する。
理論的な境界を提供し,合成および実世界のデータセットにおける手法の有効性と実用性を実証する。
経験的には、$k$NNは実際は脆弱であり、次元削減は効果的な防御である。
我々は分析によって照らされたオープンな問題について議論した。
関連論文リスト
- Do we need entire training data for adversarial training? [2.995087247817663]
我々は, 対人訓練のためのトレーニングデータのサブセットのみを用いることで, 任意の対人訓練アルゴリズムのトレーニング時間を短縮できることを示す。
逆行性サブセットで逆行訓練を行い、データセット全体のバニラトレーニングと組み合わせる。
その結果,本手法をFGSMにプラグインした場合,MNISTでは3.52倍,CIFAR-10データセットでは1.98倍の高速化を実現することができた。
論文 参考訳(メタデータ) (2023-03-10T23:21:05Z) - Importance Weighted Actor-Critic for Optimal Conservative Offline
Reinforcement Learning [23.222448307481073]
データカバレッジが不十分な複雑な環境でのオフライン強化学習(RL)のための新しい実践的アルゴリズムを提案する。
本アルゴリズムは,重要度抽出フレームワークとアクター批判パラダイムを併用する。
提案アルゴリズムの有効性を検証するため,理論的解析と実験結果の両方を提供する。
論文 参考訳(メタデータ) (2023-01-30T07:53:53Z) - COLLIDER: A Robust Training Framework for Backdoor Data [11.510009152620666]
ディープニューラルネットワーク(DNN)分類器は、バックドア攻撃に対して脆弱である。
敵は、トリガーをインストールすることで、そのような攻撃でトレーニングデータのいくつかを毒する。
最近、悪意のあるバックドアDNNを検出するための様々なアプローチが提案されている。
論文 参考訳(メタデータ) (2022-10-13T03:48:46Z) - Lethal Dose Conjecture on Data Poisoning [122.83280749890078]
データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
論文 参考訳(メタデータ) (2022-08-05T17:53:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。