論文の概要: Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2309.01838v2
- Date: Mon, 11 Sep 2023 14:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 18:16:45.594223
- Title: Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークにおけるモデル盗み攻撃に対する効率的な防御
- Authors: Kacem Khaled, Mouna Dhaouadi, Felipe Gohring de Magalh\~aes and
Gabriela Nicolescu
- Abstract要約: モデル盗難攻撃は知的財産の盗難や他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗難攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
我々は、シンプルで効果的で効率的な防衛代替案を提案する。
- 参考スコア(独自算出の注目度): 0.548924822963045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model stealing attacks have become a serious concern for deep learning
models, where an attacker can steal a trained model by querying its black-box
API. This can lead to intellectual property theft and other security and
privacy risks. The current state-of-the-art defenses against model stealing
attacks suggest adding perturbations to the prediction probabilities. However,
they suffer from heavy computations and make impracticable assumptions about
the adversary. They often require the training of auxiliary models. This can be
time-consuming and resource-intensive which hinders the deployment of these
defenses in real-world applications. In this paper, we propose a simple yet
effective and efficient defense alternative. We introduce a heuristic approach
to perturb the output probabilities. The proposed defense can be easily
integrated into models without additional training. We show that our defense is
effective in defending against three state-of-the-art stealing attacks. We
evaluate our approach on large and quantized (i.e., compressed) Convolutional
Neural Networks (CNNs) trained on several vision datasets. Our technique
outperforms the state-of-the-art defenses with a $\times37$ faster inference
latency without requiring any additional model and with a low impact on the
model's performance. We validate that our defense is also effective for
quantized CNNs targeting edge devices.
- Abstract(参考訳): モデル盗み攻撃は、ブラックボックスapiをクエリすることでトレーニングされたモデルを盗むことができるディープラーニングモデルにとって深刻な懸念となっている。
これは知的財産の盗難やその他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗み攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
しかし、彼らは重い計算に苦しめられ、逆境について現実的でない仮定をする。
しばしば補助モデルの訓練を必要とする。
これは時間消費とリソース集約であり、現実世界のアプリケーションにおけるこれらの防御の配置を妨げる可能性がある。
本稿では,シンプルで効率的かつ効率的な防衛方法を提案する。
出力確率を摂動するヒューリスティックなアプローチを導入する。
提案された防御は、追加の訓練なしで簡単にモデルに統合できる。
我々の防衛は、最先端の3つの盗賊攻撃に対して効果的であることを示す。
複数の視覚データセットに基づいて学習した大規模(圧縮)畳み込みニューラルネットワーク(CNN)に対するアプローチを評価する。
提案手法は,モデルの追加を必要とせず,モデルの性能に悪影響を及ぼすことなく,$\times37$高速な推論遅延で最先端の防御性能を向上する。
我々は、エッジデバイスをターゲットにした量子化cnnにも防御効果があることを検証する。
関連論文リスト
- Versatile Defense Against Adversarial Attacks on Image Recognition [2.9980620769521513]
現実の環境での敵の攻撃に対する防御は、アンチウイルスソフトの動作方法と比較することができる。
画像から画像への翻訳をベースとした防御手法が実現可能であると考えられる。
訓練されたモデルは、分類精度をほぼゼロから平均86%に改善した。
論文 参考訳(メタデータ) (2024-03-13T01:48:01Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - How to Steer Your Adversary: Targeted and Efficient Model Stealing
Defenses with Gradient Redirection [16.88718696087103]
グラデーション・リダイレクト(グラデーション・リダイレクト)と呼ばれるモデルステイニング・ディフェンスに対する新しいアプローチを提案する。
このアプローチのコアとなるのは、敵のトレーニング更新をターゲットとして操作するための、証明可能な最適かつ効率的なアルゴリズムです。
ネットワークサロゲートの改善と新しい協調防衛戦略を組み合わせることで、GRAD$2$と呼ばれる勾配リダイレクトディフェンスは、小さなユーティリティトレードオフと計算オーバーヘッドの低減を実現します。
論文 参考訳(メタデータ) (2022-06-28T17:04:49Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - LAFEAT: Piercing Through Adversarial Defenses with Latent Features [15.189068478164337]
特定の"ロバスト"モデルの潜在機能は、驚くほど敵の攻撃に影響を受けやすいことを示す。
勾配降下ステップ、すなわちLAFEATで潜伏機能を利用する統一$ell_infty$-normホワイトボックス攻撃アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-04-19T13:22:20Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - An Analysis of Adversarial Attacks and Defenses on Autonomous Driving
Models [15.007794089091616]
畳み込みニューラルネットワーク(CNN)は、自律運転において重要な要素である。
これまでの研究では、CNNベースの分類モデルは敵の攻撃に弱いことが示されている。
本稿では,3つの駆動モデルに対する5つの敵攻撃と4つの防御手法の詳細な解析を行う。
論文 参考訳(メタデータ) (2020-02-06T09:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。