論文の概要: Efficient Model Extraction via Boundary Sampling
- arxiv url: http://arxiv.org/abs/2410.15429v1
- Date: Sun, 20 Oct 2024 15:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:13.929066
- Title: Efficient Model Extraction via Boundary Sampling
- Title(参考訳): 境界サンプリングによる効率的なモデル抽出
- Authors: Maor Biton Dor, Yisroel Mirsky,
- Abstract要約: 本稿では,新しいデータフリーモデル抽出攻撃を提案する。
これは、効率、正確性、有効性の観点から、現在の最先端を著しく向上させる。
- 参考スコア(独自算出の注目度): 2.9815109163161204
- License:
- Abstract: This paper introduces a novel data-free model extraction attack that significantly advances the current state-of-the-art in terms of efficiency, accuracy, and effectiveness. Traditional black-box methods rely on using the victim's model as an oracle to label a vast number of samples within high-confidence areas. This approach not only requires an extensive number of queries but also results in a less accurate and less transferable model. In contrast, our method innovates by focusing on sampling low-confidence areas (along the decision boundaries) and employing an evolutionary algorithm to optimize the sampling process. These novel contributions allow for a dramatic reduction in the number of queries needed by the attacker by a factor of 10x to 600x while simultaneously improving the accuracy of the stolen model. Moreover, our approach improves boundary alignment, resulting in better transferability of adversarial examples from the stolen model to the victim's model (increasing the attack success rate from 60\% to 82\% on average). Finally, we accomplish all of this with a strict black-box assumption on the victim, with no knowledge of the target's architecture or dataset. We demonstrate our attack on three datasets with increasingly larger resolutions and compare our performance to four state-of-the-art model extraction attacks.
- Abstract(参考訳): 本稿では, 効率, 精度, 有効性の観点から, 現状を著しく向上させる新しいデータフリーモデル抽出攻撃を提案する。
伝統的なブラックボックス法は、高信頼領域内の大量のサンプルをラベル付けするために、被害者のモデルを神託として使用することに依存している。
このアプローチでは、大量のクエリを必要とするだけでなく、より正確で転送可能なモデルも必要になります。
対照的に,本手法は,低信頼領域(決定境界とともに)のサンプリングと,サンプリングプロセスの最適化に進化的アルゴリズムを用いることで,革新的手法である。
これらの新しいコントリビューションにより、攻撃者が必要とするクエリ数が10倍から600倍に劇的に削減され、同時に盗まれたモデルの精度が向上する。
さらに,本手法は境界アライメントを改善し,盗難モデルから被害者モデルへの敵のサンプルの転送性が向上する(攻撃成功率を平均60\%から82\%に向上させる)。
最後に、ターゲットのアーキテクチャやデータセットを知らないまま、被害者に厳格なブラックボックスの仮定でこれらをすべて達成します。
より高解像度な3つのデータセットに対する攻撃を実証し、パフォーマンスを4つの最先端モデル抽出攻撃と比較する。
関連論文リスト
- MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - SCME: A Self-Contrastive Method for Data-free and Query-Limited Model
Extraction Attack [18.998300969035885]
モデル抽出は、代替モデル上で逆例を生成することによって、ターゲットモデルを騙す。
本稿では,偽データの合成におけるクラス間およびクラス内多様性を考慮した,SCME という新しいデータフリーモデル抽出手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T10:41:45Z) - Sample Less, Learn More: Efficient Action Recognition via Frame Feature
Restoration [59.6021678234829]
本稿では,2つのスパースサンプリングおよび隣接するビデオフレームの中間特徴を復元する新しい手法を提案する。
提案手法の統合により, 一般的な3つのベースラインの効率は50%以上向上し, 認識精度は0.5%低下した。
論文 参考訳(メタデータ) (2023-07-27T13:52:42Z) - Decision-based iterative fragile watermarking for model integrity
verification [33.42076236847454]
ファンデーションモデルは一般的に、彼らのサービスに対する高い需要を満たすために、クラウドサーバー上でホストされる。
これは、アタッカーがクラウドにアップロードしたり、ローカルシステムから転送した後で修正できるため、セキュリティ上のリスクにさらされる。
本稿では,通常のトレーニングサンプルをモデル変更に敏感な脆弱なサンプルに変換する,反復的意思決定に基づく脆弱な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-13T10:36:11Z) - Boosting Adversarial Attacks by Leveraging Decision Boundary Information [68.07365511533675]
異なるモデルの勾配は、元の位置よりも決定境界に類似している。
転送性向上のための境界フィッティング攻撃を提案する。
本手法では, 平均攻撃成功率は58.2%であり, 他の最先端のトランスファーベース攻撃よりも10.8%高い。
論文 参考訳(メタデータ) (2023-03-10T05:54:11Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing
Attack [90.6076825117532]
モデル盗み攻撃は、被害者のターゲットモデルの能力を盗む代替モデルを作ることを目的としている。
既存の手法のほとんどは、最も現実的なシナリオでは利用できない被害者モデルからの完全な確率出力に依存する。
被害者モデルからハードラベルに隠された情報をマイニングするためのCAM駆動の消去戦略を含む,Emphblack-box Dissectorと呼ばれる新しいハードラベルモデルステアリング手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T04:12:31Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Query-Free Adversarial Transfer via Undertrained Surrogates [14.112444998191698]
本研究では,ブラックボックス環境における敵攻撃の有効性を改善するための新しい手法を提案する。
本稿では, この手法がアーキテクチャ全体にわたって良好に伝達し, 最先端の手法よりも広いマージンで性能を向上することを示す。
論文 参考訳(メタデータ) (2020-07-01T23:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。