論文の概要: A black-box adversarial attack for poisoning clustering
- arxiv url: http://arxiv.org/abs/2009.05474v4
- Date: Wed, 10 Nov 2021 15:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:55:10.842120
- Title: A black-box adversarial attack for poisoning clustering
- Title(参考訳): 中毒クラスタリングに対するブラックボックス逆行攻撃
- Authors: Antonio Emanuele Cin\`a, Alessandro Torcinovich, Marcello Pelillo
- Abstract要約: 本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
- 参考スコア(独自算出の注目度): 78.19784577498031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering algorithms play a fundamental role as tools in decision-making and
sensible automation processes. Due to the widespread use of these applications,
a robustness analysis of this family of algorithms against adversarial noise
has become imperative. To the best of our knowledge, however, only a few works
have currently addressed this problem. In an attempt to fill this gap, in this
work, we propose a black-box adversarial attack for crafting adversarial
samples to test the robustness of clustering algorithms. We formulate the
problem as a constrained minimization program, general in its structure and
customizable by the attacker according to her capability constraints. We do not
assume any information about the internal structure of the victim clustering
algorithm, and we allow the attacker to query it as a service only. In the
absence of any derivative information, we perform the optimization with a
custom approach inspired by the Abstract Genetic Algorithm (AGA). In the
experimental part, we demonstrate the sensibility of different single and
ensemble clustering algorithms against our crafted adversarial samples on
different scenarios. Furthermore, we perform a comparison of our algorithm with
a state-of-the-art approach showing that we are able to reach or even
outperform its performance. Finally, to highlight the general nature of the
generated noise, we show that our attacks are transferable even against
supervised algorithms such as SVMs, random forests, and neural networks.
- Abstract(参考訳): クラスタリングアルゴリズムは、意思決定と適切な自動化プロセスにおけるツールとして、基本的な役割を果たす。
これらの応用が広範に行われているため、この対向雑音に対するアルゴリズム群に対するロバスト性解析が不可欠となっている。
しかし、私たちの知る限りでは、この問題に対処した作品はごくわずかです。
このギャップを埋めるために,本研究では,クラスタリングアルゴリズムの堅牢性をテストするために,対数サンプルを作成するブラックボックス対数攻撃を提案する。
制約最小化プログラムとして問題を定式化し、その構造を一般化し、その能力制約に応じて攻撃者がカスタマイズできる。
我々は、被害者クラスタリングアルゴリズムの内部構造に関する情報を仮定せず、攻撃者がそれをサービスとしてのみクエリできるようにする。
派生情報がない場合には、抽象遺伝的アルゴリズム(AGA)にインスパイアされたカスタムアプローチで最適化を行う。
実験では, 異なるシナリオにおいて, 製作した逆数サンプルに対して, 異なる単一およびアンサンブルクラスタリングアルゴリズムの感受性を示す。
さらに,我々のアルゴリズムと最先端の手法を比較して,その性能に到達したり,性能を上回ったりできることを示す。
最後に、生成したノイズの一般的な性質を強調するために、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても攻撃は転送可能であることを示す。
関連論文リスト
- Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Fairness Degrading Adversarial Attacks Against Clustering Algorithms [35.40427659749882]
そこで本研究では,k-medianクラスタリングのためのフェアネス劣化攻撃アルゴリズムを提案する。
生成した対数サンプルの追加により、フェアネス値が大幅に低下することが判明した。
論文 参考訳(メタデータ) (2021-10-22T19:10:27Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Adversarial Robustness of Streaming Algorithms through Importance
Sampling [29.957317489789745]
我々は、中央の機械学習とアルゴリズムタスクに逆向きに頑健なストリーミングアルゴリズムを導入する。
我々の結果は、多くの重要なサンプリングベースのアルゴリズムが敵の堅牢性をもたらすという、単純だが強力で観察に基づいている。
我々は、様々な敵攻撃に対するアルゴリズムの堅牢性を実証的に確認し、対照的に、いくつかの一般的なアルゴリズムは堅牢ではないことを示す。
論文 参考訳(メタデータ) (2021-06-28T19:24:11Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Learning Robust Algorithms for Online Allocation Problems Using
Adversarial Training [10.14260510961573]
機械学習アプローチを用いて、オンラインアロケーション(二部マッチング)のアルゴリズムを見つけるという課題に対処する。
本稿では,従来のオンライン予算マッチング問題であるAdWords問題に着目し,理論的および実用的意義の両面から考察する。
論文 参考訳(メタデータ) (2020-10-16T14:33:11Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。