論文の概要: Get a Model! Model Hijacking Attack Against Machine Learning Models
- arxiv url: http://arxiv.org/abs/2111.04394v1
- Date: Mon, 8 Nov 2021 11:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:50:37.548016
- Title: Get a Model! Model Hijacking Attack Against Machine Learning Models
- Title(参考訳): モデルを手に入れろ!
機械学習モデルに対するモデルハイジャック攻撃
- Authors: Ahmed Salem, Michael Backes, Yang Zhang
- Abstract要約: 本稿では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手はターゲットモデルをハイジャックして、モデル所有者が気づかずに別のタスクを実行することを目的としている。
以上の結果から,2つのモデルハイジャック攻撃が,モデルユーティリティの低下により,高い攻撃成功率を達成できたことが示唆された。
- 参考スコア(独自算出の注目度): 30.346469782056406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) has established itself as a cornerstone for various
critical applications ranging from autonomous driving to authentication
systems. However, with this increasing adoption rate of machine learning
models, multiple attacks have emerged. One class of such attacks is training
time attack, whereby an adversary executes their attack before or during the
machine learning model training. In this work, we propose a new training time
attack against computer vision based machine learning models, namely model
hijacking attack. The adversary aims to hijack a target model to execute a
different task than its original one without the model owner noticing. Model
hijacking can cause accountability and security risks since a hijacked model
owner can be framed for having their model offering illegal or unethical
services. Model hijacking attacks are launched in the same way as existing data
poisoning attacks. However, one requirement of the model hijacking attack is to
be stealthy, i.e., the data samples used to hijack the target model should look
similar to the model's original training dataset. To this end, we propose two
different model hijacking attacks, namely Chameleon and Adverse Chameleon,
based on a novel encoder-decoder style ML model, namely the Camouflager. Our
evaluation shows that both of our model hijacking attacks achieve a high attack
success rate, with a negligible drop in model utility.
- Abstract(参考訳): 機械学習(ML)は、自律運転から認証システムまで、さまざまな重要なアプリケーションの基盤として確立されている。
しかし、機械学習モデルの採用率の増加に伴い、複数の攻撃が発生している。
そのような攻撃の1つのクラスはトレーニングタイムアタックであり、敵は機械学習モデルトレーニングの前後でアタックを実行する。
本研究では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手は、モデル所有者が気づかないまま、ターゲットモデルをハイジャックして元のモデルとは異なるタスクを実行することを目指している。
モデルハイジャックは、ハイジャックされたモデルオーナが違法または非倫理的なサービスを提供するモデルを持つためにフレーム化できるため、説明責任とセキュリティリスクを引き起こす可能性がある。
モデルハイジャック攻撃は、既存のデータ中毒攻撃と同じ方法で起動される。
しかし、モデルハイジャック攻撃の1つの要件は、ステルス性である。すなわち、ターゲットモデルをハイジャックするために使用されるデータサンプルは、モデルの元々のトレーニングデータセットと似ているべきである。
そこで本研究では,新しいエンコーダデコーダスタイルMLモデルであるCamouflagerをベースに,ChameleonとAdverse Chameleonの2つの異なるモデルハイジャック攻撃を提案する。
評価の結果,2つのモデルによるハイジャック攻撃は,モデルユーティリティの低下を無視して高い攻撃成功率を達成した。
関連論文リスト
- Vera Verto: Multimodal Hijacking Attack [22.69532868255637]
このドメインにおける最近の攻撃は、モデルハイジャック攻撃であり、敵が犠牲者モデルをハイジャックして、自身のハイジャックタスクを実装する。
我々は、モデルハイジャック攻撃をより一般的なマルチモーダル設定に変換し、異なるモダリティのデータに基づいて、ハイジャックと元のタスクを実行する。
STL10, CIFAR-10, MNISTをハイジャックするために, Sogou ニュースデータセットを使用すると, 94%, 94%, 95%の攻撃成功率が得られる。
論文 参考訳(メタデータ) (2024-07-31T19:37:06Z) - Model for Peanuts: Hijacking ML Models without Training Access is Possible [5.005171792255858]
モデルハイジャック(英: Model hijacking)とは、被害者のモデルをハイジャックして元のモデルとは異なるタスクを実行する攻撃である。
本研究では、未知の入力サンプルを分類するために、SnatchMLと呼ばれる推論時にモデルハイジャックを行うための簡単なアプローチを提案する。
最初にメタ学習と呼ぶ新しいアプローチを提案し、モデルが元のデータセットをトレーニングしながら潜在的に悪意のあるタスクを解放するのに役立つように設計した。
論文 参考訳(メタデータ) (2024-06-03T18:04:37Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Model Inversion Attack against Transfer Learning: Inverting a Model
without Accessing It [41.39995986856193]
トランスファーラーニングは、事前訓練された教師モデルを生成する重要なアプローチである。
転送学習に関する最近の研究により、様々な攻撃に対して脆弱であることが判明した。
モデル反転攻撃に対してトランスファーラーニングが脆弱であるかどうかはまだ不明である。
論文 参考訳(メタデータ) (2022-03-13T05:07:02Z) - Manipulating SGD with Data Ordering Attacks [23.639512087220137]
基礎となるモデルデータセットやアーキテクチャを変更する必要のない,一連のトレーニングタイムアタックを提示する。
特に、アタッカーはトレーニングバッチをリオーダーするだけでモデルの完全性と可用性を損なう可能性がある。
攻撃は、攻撃後数百エポックというモデル性能を低下させるという長期的な影響をもたらす。
論文 参考訳(メタデータ) (2021-04-19T22:17:27Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。