論文の概要: A Model Stealing Attack Against Multi-Exit Networks
- arxiv url: http://arxiv.org/abs/2305.13584v2
- Date: Mon, 17 Mar 2025 00:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:32:50.747879
- Title: A Model Stealing Attack Against Multi-Exit Networks
- Title(参考訳): マルチエクイットネットワークに対するモデルステアリング攻撃
- Authors: Li Pan, Lv Peizhuo, Chen Kai, Zhang Shengzhi, Cai Yuling, Xiang Fan,
- Abstract要約: モデルユーティリティと出力戦略の両方を抽出するために,マルチエグジットネットワークに対する最初の盗難攻撃を提案する。
複数のマルチエグジットネットワークとベンチマークデータセットにわたる実験において、本手法は被害者モデルに最も近い精度と効率を常に達成する。
- 参考スコア(独自算出の注目度): 13.971211573064739
- License:
- Abstract: Compared to traditional neural networks with a single output channel, a multi-exit network has multiple exits that allow for early outputs from the model's intermediate layers, thus significantly improving computational efficiency while maintaining similar main task accuracy. Existing model stealing attacks can only steal the model's utility while failing to capture its output strategy, i.e., a set of thresholds used to determine from which exit to output. This leads to a significant decrease in computational efficiency for the extracted model, thereby losing the advantage of multi-exit networks. In this paper, we propose the first model stealing attack against multi-exit networks to extract both the model utility and the output strategy. We employ Kernel Density Estimation to analyze the target model's output strategy and use performance loss and strategy loss to guide the training of the extracted model. Furthermore, we design a novel output strategy search algorithm to maximize the consistency between the victim model and the extracted model's output behaviors. In experiments across multiple multi-exit networks and benchmark datasets, our method always achieves accuracy and efficiency closest to the victim models.
- Abstract(参考訳): 単一出力チャネルを持つ従来のニューラルネットワークと比較して、マルチエグジットネットワークは複数のエグジットを持ち、モデルの中間層からの早期出力を可能にし、同様の主タスク精度を維持しながら計算効率を大幅に向上させる。
既存のモデル盗難攻撃は、出力戦略(出力の出口を決定するために使われるしきい値のセット)を捕捉できない間にのみ、モデルのユーティリティを盗むことができる。
これにより、抽出されたモデルに対する計算効率が大幅に低下し、マルチエグジットネットワークの利点が失われる。
本稿では,モデルユーティリティと出力戦略の両方を抽出するために,マルチエグジットネットワークに対する最初の盗難攻撃を提案する。
我々はカーネル密度推定を用いて、対象モデルの出力戦略を分析し、性能損失と戦略損失を用いて抽出したモデルのトレーニングを導出する。
さらに,対象モデルと抽出したモデルの出力挙動との整合性を最大化するために,新たな出力戦略探索アルゴリズムを設計する。
複数のマルチエグジットネットワークとベンチマークデータセットにわたる実験において、本手法は被害者モデルに最も近い精度と効率を常に達成する。
関連論文リスト
- Exploring Query Efficient Data Generation towards Data-free Model Stealing in Hard Label Setting [38.755154033324374]
データフリーモデルは、ターゲットモデルの構造、パラメータ、トレーニングデータにアクセスすることなく、ターゲットモデルの機能を代替モデルに複製する。
本稿では Query Efficient Data Generation (textbfQEDG) と呼ばれる新しいデータフリーモデルステーリング手法を提案する。
対象モデルの決定境界に密接に一様に整合する十分なサンプルの生成を保証するために、2つの異なる損失関数を導入する。
論文 参考訳(メタデータ) (2024-12-18T03:03:15Z) - CAMH: Advancing Model Hijacking Attack in Machine Learning [44.58778557522968]
Category-Agnostic Model Hijacking (CAMH) は、新しいモデルハイジャック攻撃法である。
クラス番号のミスマッチ、データ分散のばらつき、元のタスクとハイジャックタスクのパフォーマンスバランスの問題に対処する。
本研究は,本来のタスクの性能を最小限に抑えつつ,攻撃効果を実証するものである。
論文 参考訳(メタデータ) (2024-08-25T07:03:01Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Dynamic Transformers Provide a False Sense of Efficiency [75.39702559746533]
マルチエグジットモデルは、計算の節約を早期出口から得るため、効率と精度をトレードオフする。
本稿では,マルチエグジットモデルの効率を抑えるために特別に最適化された,シンプルで効果的なアタック・フレームワークであるITAを提案する。
GLUEベンチマークの実験により、Pameは様々なマルチエクイットモデルの効率向上を平均80%削減できることが示された。
論文 参考訳(メタデータ) (2023-05-20T16:41:48Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - MEGA: Model Stealing via Collaborative Generator-Substitute Networks [4.065949099860426]
近年のデータフリーモデルステイティングメソッドは,実際のクエリの例を使わずに,ターゲットモデルの知識を抽出するために有効であることが示されている。
本稿では,データフリーモデルステーリングフレームワーク(MEGA)を提案する。
以上の結果から,我々の訓練した代替モデルの精度と敵攻撃成功率は,最先端のデータフリーブラックボックス攻撃よりも最大で33%,40%高い値となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-31T09:34:28Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z) - Model Extraction Attacks against Recurrent Neural Networks [1.2891210250935146]
繰り返しニューラルネットワーク(RNN)に対するモデル抽出攻撃の脅威について検討する。
長い短期記憶(LSTM)から単純なRNNを用いて精度の高いモデルを抽出できるかどうかを論じる。
次に、特に損失関数とより複雑なアーキテクチャを構成することにより、精度の高いモデルを効率的に抽出できることを示す。
論文 参考訳(メタデータ) (2020-02-01T01:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。