論文の概要: DynaMO: Protecting Mobile DL Models through Coupling Obfuscated DL Operators
- arxiv url: http://arxiv.org/abs/2410.15033v1
- Date: Sat, 19 Oct 2024 08:30:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:55.597186
- Title: DynaMO: Protecting Mobile DL Models through Coupling Obfuscated DL Operators
- Title(参考訳): DynaMO: 難読化DLオペレータの結合による移動DLモデル保護
- Authors: Mingyi Zhou, Xiang Gao, Xiao Chen, Chunyang Chen, John Grundy, Li Li,
- Abstract要約: 攻撃者は、アプリ内のモバイルDLモデルを簡単にリバースエンジニアリングして知的財産を盗んだり、効果的な攻撃を発生させることができる。
モデル難読化はそのようなリバースエンジニアリングを防御するために提案されている。
我々は,同型暗号化に類似した動的モデル難読化戦略であるDynaMOを提案する。
- 参考スコア(独自算出の注目度): 29.82616462226066
- License:
- Abstract: Deploying DL models on mobile Apps has become ever-more popular. However, existing studies show attackers can easily reverse-engineer mobile DL models in Apps to steal intellectual property or generate effective attacks. A recent approach, Model Obfuscation, has been proposed to defend against such reverse engineering by obfuscating DL model representations, such as weights and computational graphs, without affecting model performance. These existing model obfuscation methods use static methods to obfuscate the model representation, or they use half-dynamic methods but require users to restore the model information through additional input arguments. However, these static methods or half-dynamic methods cannot provide enough protection for on-device DL models. Attackers can use dynamic analysis to mine the sensitive information in the inference codes as the correct model information and intermediate results must be recovered at runtime for static and half-dynamic obfuscation methods. We assess the vulnerability of the existing obfuscation strategies using an instrumentation method and tool, DLModelExplorer, that dynamically extracts correct sensitive model information at runtime. Experiments show it achieves very high attack performance. To defend against such attacks based on dynamic instrumentation, we propose DynaMO, a Dynamic Model Obfuscation strategy similar to Homomorphic Encryption. The obfuscation and recovery process can be done through simple linear transformation for the weights of randomly coupled eligible operators, which is a fully dynamic obfuscation strategy. Experiments show that our proposed strategy can dramatically improve model security compared with the existing obfuscation strategies, with only negligible overheads for on-device models.
- Abstract(参考訳): モバイルアプリにDLモデルをデプロイすることは、ますます人気が高まっている。
しかし、既存の研究では、アタッカーがアプリ内のモバイルDLモデルをリバースエンジニアリングして知的財産を盗んだり、効果的な攻撃を発生させることができることが示されている。
近年, 重みや計算グラフなどのDLモデル表現を, モデル性能に影響を与えることなく難読化する手法としてモデル難読化法 (Model Obfuscation) が提案されている。
これらの既存モデル難読化手法は静的メソッドを使用してモデル表現を難読化するか、あるいはハーフダイナミックメソッドを使用するが、ユーザーは追加の入力引数を通じてモデル情報を復元する必要がある。
しかし、これらの静的メソッドやハーフダイナミックメソッドは、デバイス上のDLモデルに対して十分な保護を提供することができない。
攻撃者は動的解析を用いて推論符号のセンシティブな情報を正しいモデル情報としてマイニングし、中間結果を静的および半動的難読化法のために実行時に回収する必要がある。
我々は,既存の難読化手法であるDLModelExplorerを用いて,実行時に適切なモデル情報を動的に抽出し,既存の難読化戦略の脆弱性を評価する。
実験では、非常に高い攻撃性能を達成している。
動的インスツルメンテーションに基づく攻撃に対して,同型暗号化に似た動的モデル難読化戦略であるDynaMOを提案する。
難解化と回復の過程は、完全に動的な難解化戦略であるランダムに結合された可換作用素の重みに対する単純な線形変換によって行うことができる。
実験により,既存の難読化戦略と比較して,提案手法がモデルセキュリティを劇的に改善し,デバイス上でのモデルのオーバーヘッドを無視できることがわかった。
関連論文リスト
- A Realistic Threat Model for Large Language Model Jailbreaks [87.64278063236847]
本研究では,ジェイルブレイク攻撃の原理的比較のための統一的脅威モデルを提案する。
私たちの脅威モデルは、パープレキシティの制約を組み合わせることで、ジェイルブレイクが自然のテキストからどれだけ逸脱するかを測定します。
我々は、この新しい現実的な脅威モデルに人気のある攻撃を適用する。
論文 参考訳(メタデータ) (2024-10-21T17:27:01Z) - Mitigating Backdoor Attacks using Activation-Guided Model Editing [8.00994004466919]
バックドア攻撃は、機械学習モデルの完全性と信頼性を損なう。
本研究では,そのようなバックドア攻撃に対抗するために,機械学習による新たなバックドア緩和手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T13:43:47Z) - Model-less Is the Best Model: Generating Pure Code Implementations to Replace On-Device DL Models [29.635329143403368]
デプロイされたディープラーニング(DL)モデルは、攻撃者によって現実世界のアプリケーションやデバイスから簡単に抽出できる。
従来のソフトウェア保護技術は広く研究されており、デバイス上のモデルがC++のような純粋なコードを使って実装できれば、既存のソフトウェア保護テクニックを再利用する可能性が開ける。
本稿では,デバイス上のモデル情報を自動的に抽出し,カスタマイズ可能なプログラムを合成する新しい方法であるCustomDLCoderを提案する。
論文 参考訳(メタデータ) (2024-03-25T07:06:53Z) - Investigating White-Box Attacks for On-Device Models [21.329209501209665]
オンデバイスモデルは、対応するモバイルアプリから簡単に抽出できるため、攻撃に対して脆弱である。
本稿では,デバイス上でのTFLiteモデルをデバッギング可能なモデルに自動的に変換する,デバイス上でのReverse Engineering framework for On-Device Models (REOM)を提案する。
以上の結果から,REOMは攻撃者の攻撃成功率を100倍に抑えることができることがわかった。
論文 参考訳(メタデータ) (2024-02-08T09:03:17Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Trojan Model Detection Using Activation Optimization [15.032071953322594]
機械学習モデルのトレーニングは非常に費用がかからない。
事前訓練されたモデルはトロイア攻撃に感染することがある。
本稿では,トロイの木馬モデルを検出する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-08T02:17:29Z) - ModelObfuscator: Obfuscating Model Information to Protect Deployed ML-based Systems [31.988501084337678]
デバイス上でのTFLiteモデルを自動的に難読化するためのプロトタイプツールModelObfuscatorを開発した。
実験の結果,提案手法はモデルセキュリティを劇的に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-06-01T05:24:00Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。