論文の概要: Evading Black-box Classifiers Without Breaking Eggs
- arxiv url: http://arxiv.org/abs/2306.02895v1
- Date: Mon, 5 Jun 2023 14:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:42:49.355475
- Title: Evading Black-box Classifiers Without Breaking Eggs
- Title(参考訳): 卵を割らないブラックボックス分類器の回避
- Authors: Edoardo Debenedetti, Nicholas Carlini and Florian Tram\`er
- Abstract要約: 決定に基づく回避攻撃は、ブラックボックス分類器に繰り返し問い合わせて敵の例を生成する。
以前の作業では、分類器に対して行われたクエリの総数によって、このような攻撃のコストを測定していた。
このメトリクスは欠陥があり、悪いクエリの数を1.5$-$7.3times$に削減する新たな攻撃を設計している、と私たちは主張する。
- 参考スコア(独自算出の注目度): 50.35467684018066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-based evasion attacks repeatedly query a black-box classifier to
generate adversarial examples. Prior work measures the cost of such attacks by
the total number of queries made to the classifier. We argue this metric is
flawed. Most security-critical machine learning systems aim to weed out "bad"
data (e.g., malware, harmful content, etc). Queries to such systems carry a
fundamentally asymmetric cost: queries detected as "bad" come at a higher cost
because they trigger additional security filters, e.g., usage throttling or
account suspension. Yet, we find that existing decision-based attacks issue a
large number of "bad" queries, which likely renders them ineffective against
security-critical systems. We then design new attacks that reduce the number of
bad queries by $1.5$-$7.3\times$, but often at a significant increase in total
(non-bad) queries. We thus pose it as an open problem to build black-box
attacks that are more effective under realistic cost metrics.
- Abstract(参考訳): 決定に基づく回避攻撃は、ブラックボックス分類器に繰り返し問い合わせて敵の例を生成する。
先行作業は、分類器に対するクエリの総数によって、そのような攻撃のコストを測定する。
私たちはこの指標に欠陥があると主張している。
ほとんどのセキュリティクリティカルな機械学習システムは、"悪い"データ(マルウェア、有害コンテンツなど)の排除を目指している。
このようなシステムへのクエリには、基本的に非対称なコストがかかる:"悪い"として検出されたクエリは、追加のセキュリティフィルタをトリガーする(例えば、使用制限やアカウントサスペンションなど)ため、より高いコストがかかる。
しかし、既存の決定に基づく攻撃は多数の"悪い"クエリを発行しており、セキュリティクリティカルなシステムに対して効果が低い可能性が高い。
次に、悪質なクエリの数を$1.5$~$7.3\times$で減らす新しい攻撃をデザインします。
したがって、現実的なコストメトリクスの下でより効果的であるブラックボックス攻撃を構築するためのオープンな問題であると考えています。
関連論文リスト
- Query Provenance Analysis: Efficient and Robust Defense against Query-based Black-box Attacks [11.32992178606254]
我々は、より堅牢で効率的なステートフルディフェンスモデル(SDM)のための新しいアプローチ、QPA(Query Provenance Analysis)を提案する。
QPAは、クエリ間の履歴関係をシーケンスの特徴としてカプセル化し、良性クエリシーケンスと逆性クエリシーケンスの基本的な違いをキャプチャする。
我々は,6つのクエリベースのブラックボックスアタックアルゴリズムを用いて,広く使用されている4つのデータセットに対して,2つのベースラインであるBlackLightとPIHAと比較した。
論文 参考訳(メタデータ) (2024-05-31T06:56:54Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Preprocessors Matter! Realistic Decision-Based Attacks on Machine
Learning Systems [56.64374584117259]
決定に基づく攻撃は、ハードラベルクエリのみを作成することによって、機械学習(ML)モデルに対する逆例を構築する。
我々は,(i)プリプロセッサをリバースエンジニアリングし,(ii)この抽出した情報を用いてエンド・ツー・エンド・システムを攻撃する手法を開発した。
我々のプリプロセッサ抽出法は数百のクエリしか必要とせず、我々のプリプロセッサ・アウェア・アタックはモデルのみを攻撃する場合と同じ効果を回復する。
論文 参考訳(メタデータ) (2022-10-07T03:10:34Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Small Input Noise is Enough to Defend Against Query-based Black-box
Attacks [23.712389625037442]
本稿では,クエリベースのブラックボックス攻撃に対して,ノイズ防御がいかに小さいかを示す。
小さな追加入力ノイズでも、ほとんどのクエリベースの攻撃を中和できます。
強力な防御能力を持つSNDは、元のクリーンな精度と計算速度をほぼ維持します。
論文 参考訳(メタデータ) (2021-01-13T01:45:59Z) - SurFree: a fast surrogate-free black-box attack [17.323638042215013]
逆の例はわずかに修正された入力で、後に誤分類されるが、元のものと知覚的に近いままである。
ここ数年、ブラックボックス攻撃がターゲットに送信するクエリの量が大幅に減少しているのを目撃している。
本稿では、ブラックボックス決定に基づく攻撃という、最も困難な設定におけるクエリ量を大幅に削減する幾何的アプローチであるSurFreeを提案する。
論文 参考訳(メタデータ) (2020-11-25T15:08:19Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Blacklight: Scalable Defense for Neural Networks against Query-Based
Black-Box Attacks [34.04323550970413]
我々は、クエリベースのブラックボックス攻撃に対する新たな防御であるブラックライトを提案する。
Blacklightはクエリベースのブラックボックス攻撃を検出する。
我々はBlacklightを8つの最先端攻撃に対して、様々なモデルと画像分類タスクで評価する。
論文 参考訳(メタデータ) (2020-06-24T20:52:24Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。