論文の概要: Online Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2103.02014v1
- Date: Tue, 2 Mar 2021 20:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:45:48.686117
- Title: Online Adversarial Attacks
- Title(参考訳): オンライン敵攻撃
- Authors: Andjela Mladenovic, Avishek Joey Bose, Hugo Berard, William L.
Hamilton, Simon Lacoste-Julien, Pascal Vincent, Gauthier Gidel
- Abstract要約: 我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
- 参考スコア(独自算出の注目度): 57.448101834579624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks expose important vulnerabilities of deep learning models,
yet little attention has been paid to settings where data arrives as a stream.
In this paper, we formalize the online adversarial attack problem, emphasizing
two key elements found in real-world use-cases: attackers must operate under
partial knowledge of the target model, and the decisions made by the attacker
are irrevocable since they operate on a transient data stream. We first
rigorously analyze a deterministic variant of the online threat model by
drawing parallels to the well-studied $k$-\textit{secretary problem} and
propose \algoname, a simple yet practical algorithm yielding a provably better
competitive ratio for $k=2$ over the current best single threshold algorithm.
We also introduce the \textit{stochastic $k$-secretary} -- effectively reducing
online blackbox attacks to a $k$-secretary problem under noise -- and prove
theoretical bounds on the competitive ratios of \textit{any} online algorithms
adapted to this setting. Finally, we complement our theoretical results by
conducting a systematic suite of experiments on MNIST and CIFAR-10 with both
vanilla and robust classifiers, revealing that, by leveraging online secretary
algorithms, like \algoname, we can get an online attack success rate close to
the one achieved by the optimal offline solution.
- Abstract(参考訳): 敵対的攻撃はディープラーニングモデルの重大な脆弱性を露呈するが、ストリームとしてデータが到着する設定にはほとんど注意が払われていない。
本稿では,実世界のユースケースに見られる2つの重要な要素を強調して,オンラインの敵対的攻撃問題を形式化する。攻撃者はターゲットモデルの部分的知識の下で行動しなければならない。
まず、よく研究された $k$-\textit{secretary problem} に平行に描画し、オンライン脅威モデルの決定論的変形を厳密に分析し、現在のベストシングルしきい値アルゴリズムよりも$k=2$の競争率を証明できるシンプルかつ実用的なアルゴリズムである \algoname を提案します。
また、オンラインブラックボックス攻撃をノイズ下の$k$-secretary問題に効果的に還元する \textit{stochastic $k$-secretary} を導入し、この設定に適応した \textit{any} オンラインアルゴリズムの競合比に関する理論的境界を証明します。
最後に, MNIST と CIFAR-10 の系統的な実験をバニラとロバストな分類器で行うことによって, 理論結果を補完し, \algoname のようなオンライン秘書アルゴリズムを活用することで, 最適オフラインソリューションによって達成されたものに近いオンライン攻撃成功率が得られることを示した。
関連論文リスト
- Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Adversarial Attacks on Online Learning to Rank with Click Feedback [18.614785011987756]
オンライン学習のランク付けは、学習エージェントがアイテムの順序付きリストを選択し、ユーザクリックでフィードバックを受け取る、シーケンシャルな意思決定問題である。
本稿では,OLTRの複数変種に対する攻撃戦略について検討する。
本稿では,汎用クリックモデルに基づく任意のアルゴリズムに対する一般的な攻撃戦略を提案する。
論文 参考訳(メタデータ) (2023-05-26T16:28:26Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Adversarial Deep Learning for Online Resource Allocation [12.118811903399951]
私たちはディープニューラルネットワークを使って、リソース割り当てと価格の問題に対するオンラインアルゴリズムをゼロから学習しています。
私たちの研究は、最悪のパフォーマンス保証の観点から、ディープニューラルネットワークを使用してオンラインアルゴリズムを設計した初めてのものです。
論文 参考訳(メタデータ) (2021-11-19T15:48:43Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。