論文の概要: Vera Verto: Multimodal Hijacking Attack
- arxiv url: http://arxiv.org/abs/2408.00129v1
- Date: Wed, 31 Jul 2024 19:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 22:25:51.417437
- Title: Vera Verto: Multimodal Hijacking Attack
- Title(参考訳): Vera Verto:マルチモーダル・ハイジャック攻撃
- Authors: Minxing Zhang, Ahmed Salem, Michael Backes, Yang Zhang,
- Abstract要約: このドメインにおける最近の攻撃は、モデルハイジャック攻撃であり、敵が犠牲者モデルをハイジャックして、自身のハイジャックタスクを実装する。
我々は、モデルハイジャック攻撃をより一般的なマルチモーダル設定に変換し、異なるモダリティのデータに基づいて、ハイジャックと元のタスクを実行する。
STL10, CIFAR-10, MNISTをハイジャックするために, Sogou ニュースデータセットを使用すると, 94%, 94%, 95%の攻撃成功率が得られる。
- 参考スコア(独自算出の注目度): 22.69532868255637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing cost of training machine learning (ML) models has led to the inclusion of new parties to the training pipeline, such as users who contribute training data and companies that provide computing resources. This involvement of such new parties in the ML training process has introduced new attack surfaces for an adversary to exploit. A recent attack in this domain is the model hijacking attack, whereby an adversary hijacks a victim model to implement their own -- possibly malicious -- hijacking tasks. However, the scope of the model hijacking attack is so far limited to the homogeneous-modality tasks. In this paper, we transform the model hijacking attack into a more general multimodal setting, where the hijacking and original tasks are performed on data of different modalities. Specifically, we focus on the setting where an adversary implements a natural language processing (NLP) hijacking task into an image classification model. To mount the attack, we propose a novel encoder-decoder based framework, namely the Blender, which relies on advanced image and language models. Experimental results show that our modal hijacking attack achieves strong performances in different settings. For instance, our attack achieves 94%, 94%, and 95% attack success rate when using the Sogou news dataset to hijack STL10, CIFAR-10, and MNIST classifiers.
- Abstract(参考訳): マシンラーニング(ML)モデルのトレーニングコストの増大により、トレーニングデータにコントリビュートするユーザや、コンピューティングリソースを提供する企業など、トレーニングパイプラインに新たなパーティを含めることが可能になった。
MLトレーニングプロセスにおけるこのような新たなパーティの関与は、敵が悪用する新たなアタックサーフェスを導入している。
このドメインにおける最近の攻撃は、モデルハイジャック攻撃であり、敵が被害者モデルをハイジャックして、自身の-おそらく悪意のある-ハイジャックタスクを実装する。
しかし、モデルハイジャック攻撃のスコープは、これまでのところ同質なモダリティタスクに限られている。
本稿では、モデルハイジャック攻撃をより一般的なマルチモーダル設定に変換し、異なるモーダルデータに基づいて、ハイジャックとオリジナルタスクを実行する。
具体的には、相手が自然言語処理(NLP)ハイジャックタスクを画像分類モデルに実装する設定に焦点を当てる。
攻撃をマウントするために,先進的な画像モデルと言語モデルに依存する新しいエンコーダデコーダベースのフレームワークであるBlenderを提案する。
実験結果から,モーダルハイジャック攻撃は異なる設定で強い性能を発揮することが示された。
例えば、私たちの攻撃は、STL10、CIFAR-10、MNIST分類器をハイジャックするためにSogouニュースデータセットを使用する場合、94%、94%、95%の攻撃成功率を達成する。
関連論文リスト
- Model Hijacking Attack in Federated Learning [19.304332176437363]
HijackFLは、フェデレートラーニングにおけるグローバルモデルに対する、第一級のハイジャック攻撃である。
それは、サーバや良心的なクライアントの通知なしに、グローバルモデルが元のタスクとは異なるタスクを実行するように強制することを目的としています。
4つのベンチマークデータセットと3つの人気のあるモデルについて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-04T20:02:07Z) - Model for Peanuts: Hijacking ML Models without Training Access is Possible [5.005171792255858]
モデルハイジャック(英: Model hijacking)とは、被害者のモデルをハイジャックして元のモデルとは異なるタスクを実行する攻撃である。
本研究では、未知の入力サンプルを分類するために、SnatchMLと呼ばれる推論時にモデルハイジャックを行うための簡単なアプローチを提案する。
最初にメタ学習と呼ぶ新しいアプローチを提案し、モデルが元のデータセットをトレーニングしながら潜在的に悪意のあるタスクを解放するのに役立つように設計した。
論文 参考訳(メタデータ) (2024-06-03T18:04:37Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Get a Model! Model Hijacking Attack Against Machine Learning Models [30.346469782056406]
本稿では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手はターゲットモデルをハイジャックして、モデル所有者が気づかずに別のタスクを実行することを目的としている。
以上の結果から,2つのモデルハイジャック攻撃が,モデルユーティリティの低下により,高い攻撃成功率を達成できたことが示唆された。
論文 参考訳(メタデータ) (2021-11-08T11:30:50Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。