論文の概要: ModelObfuscator: Obfuscating Model Information to Protect Deployed ML-based Systems
- arxiv url: http://arxiv.org/abs/2306.06112v3
- Date: Fri, 1 Mar 2024 04:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 23:48:38.580232
- Title: ModelObfuscator: Obfuscating Model Information to Protect Deployed ML-based Systems
- Title(参考訳): ModelObfuscator: デプロイされたMLベースのシステムを保護するための難読化モデル情報
- Authors: Mingyi Zhou, Xiang Gao, Jing Wu, John Grundy, Xiao Chen, Chunyang Chen, Li Li,
- Abstract要約: デバイス上でのTFLiteモデルを自動的に難読化するためのプロトタイプツールModelObfuscatorを開発した。
実験の結果,提案手法はモデルセキュリティを劇的に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 31.988501084337678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More and more edge devices and mobile apps are leveraging deep learning (DL) capabilities. Deploying such models on devices -- referred to as on-device models -- rather than as remote cloud-hosted services, has gained popularity because it avoids transmitting user data off of the device and achieves high response time. However, on-device models can be easily attacked, as they can be accessed by unpacking corresponding apps and the model is fully exposed to attackers. Recent studies show that attackers can easily generate white-box-like attacks for an on-device model or even inverse its training data. To protect on-device models from white-box attacks, we propose a novel technique called model obfuscation. Specifically, model obfuscation hides and obfuscates the key information -- structure, parameters and attributes -- of models by renaming, parameter encapsulation, neural structure obfuscation obfuscation, shortcut injection, and extra layer injection. We have developed a prototype tool ModelObfuscator to automatically obfuscate on-device TFLite models. Our experiments show that this proposed approach can dramatically improve model security by significantly increasing the difficulty of parsing models inner information, without increasing the latency of DL models. Our proposed on-device model obfuscation has the potential to be a fundamental technique for on-device model deployment. Our prototype tool is publicly available at: https://github.com/zhoumingyi/ModelObfuscator.
- Abstract(参考訳): ますます多くのエッジデバイスやモバイルアプリが、ディープラーニング(DL)機能を活用している。
リモートクラウドホストサービスではなく、デバイスにそのようなモデルをデプロイする — オンデバイスモデルと呼ばれる — は、デバイスからユーザデータを送信せず、応答時間も高いため、人気を博している。
しかし、デバイス上のモデルは、対応するアプリをアンパックすることでアクセスでき、モデルが攻撃者に完全に公開されているため、簡単に攻撃することができる。
近年の研究では、攻撃者はデバイス上でのモデルに対するホワイトボックスのような攻撃や、トレーニングデータの逆転を簡単に生成できることが示されている。
デバイス上のモデルをホワイトボックス攻撃から保護するために,モデル難読化と呼ばれる新しい手法を提案する。
具体的には、モデル難読化は、リネーム、パラメータカプセル化、神経構造難読化、ショートカット注入、余分な層注入によってモデルのキー情報、構造、パラメータ、属性を隠蔽する。
デバイス上でのTFLiteモデルを自動的に難読化するためのプロトタイプツールModelObfuscatorを開発した。
提案手法は,DLモデルの遅延を増大させることなく,内部情報を解析することの難しさを大幅に増大させることで,モデルセキュリティを劇的に改善できることを示す。
提案したオンデバイスモデル難読化は,オンデバイスモデルデプロイメントの基本的な技術となる可能性がある。
私たちのプロトタイプツールは、https://github.com/zhoumingyi/ModelObfuscator.comで公開されています。
関連論文リスト
- DynaMO: Protecting Mobile DL Models through Coupling Obfuscated DL Operators [29.82616462226066]
攻撃者は、アプリ内のモバイルDLモデルを簡単にリバースエンジニアリングして知的財産を盗んだり、効果的な攻撃を発生させることができる。
モデル難読化はそのようなリバースエンジニアリングを防御するために提案されている。
我々は,同型暗号化に類似した動的モデル難読化戦略であるDynaMOを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:30:08Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Model-less Is the Best Model: Generating Pure Code Implementations to Replace On-Device DL Models [29.635329143403368]
デプロイされたディープラーニング(DL)モデルは、攻撃者によって現実世界のアプリケーションやデバイスから簡単に抽出できる。
従来のソフトウェア保護技術は広く研究されており、デバイス上のモデルがC++のような純粋なコードを使って実装できれば、既存のソフトウェア保護テクニックを再利用する可能性が開ける。
本稿では,デバイス上のモデル情報を自動的に抽出し,カスタマイズ可能なプログラムを合成する新しい方法であるCustomDLCoderを提案する。
論文 参考訳(メタデータ) (2024-03-25T07:06:53Z) - Investigating White-Box Attacks for On-Device Models [21.329209501209665]
オンデバイスモデルは、対応するモバイルアプリから簡単に抽出できるため、攻撃に対して脆弱である。
本稿では,デバイス上でのTFLiteモデルをデバッギング可能なモデルに自動的に変換する,デバイス上でのReverse Engineering framework for On-Device Models (REOM)を提案する。
以上の結果から,REOMは攻撃者の攻撃成功率を100倍に抑えることができることがわかった。
論文 参考訳(メタデータ) (2024-02-08T09:03:17Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。