論文の概要: THEMIS: Towards Practical Intellectual Property Protection for Post-Deployment On-Device Deep Learning Models
- arxiv url: http://arxiv.org/abs/2503.23748v1
- Date: Mon, 31 Mar 2025 05:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:39:58.205928
- Title: THEMIS: Towards Practical Intellectual Property Protection for Post-Deployment On-Device Deep Learning Models
- Title(参考訳): TheMIS: デバイス上でのデプロイ後ディープラーニングモデルのための知的財産保護の実現に向けて
- Authors: Yujin Huang, Zhi Zhang, Qingchuan Zhao, Xingliang Yuan, Chunyang Chen,
- Abstract要約: オンデバイスディープラーニング(DL)はモバイルアプリで急速に採用され、オフラインモデル推論とクラウドベースのアプローチよりもユーザのプライバシ保護のメリットを提供する。
必然的に、ユーザーデバイスにモデルを保存し、新しい脆弱性、特にモデルステアリング攻撃と知的財産権侵害を導入する。
本稿では,デバイス上でのDLモデルの読み取り専用制約を緩和するツールであるTheMISを提案する。
- 参考スコア(独自算出の注目度): 36.02405283730231
- License:
- Abstract: On-device deep learning (DL) has rapidly gained adoption in mobile apps, offering the benefits of offline model inference and user privacy preservation over cloud-based approaches. However, it inevitably stores models on user devices, introducing new vulnerabilities, particularly model-stealing attacks and intellectual property infringement. While system-level protections like Trusted Execution Environments (TEEs) provide a robust solution, practical challenges remain in achieving scalable on-device DL model protection, including complexities in supporting third-party models and limited adoption in current mobile solutions. Advancements in TEE-enabled hardware, such as NVIDIA's GPU-based TEEs, may address these obstacles in the future. Currently, watermarking serves as a common defense against model theft but also faces challenges here as many mobile app developers lack corresponding machine learning expertise and the inherent read-only and inference-only nature of on-device DL models prevents third parties like app stores from implementing existing watermarking techniques in post-deployment models. To protect the intellectual property of on-device DL models, in this paper, we propose THEMIS, an automatic tool that lifts the read-only restriction of on-device DL models by reconstructing their writable counterparts and leverages the untrainable nature of on-device DL models to solve watermark parameters and protect the model owner's intellectual property. Extensive experimental results across various datasets and model structures show the superiority of THEMIS in terms of different metrics. Further, an empirical investigation of 403 real-world DL mobile apps from Google Play is performed with a success rate of 81.14%, showing the practicality of THEMIS.
- Abstract(参考訳): オンデバイスディープラーニング(DL)はモバイルアプリで急速に採用され、オフラインモデル推論とクラウドベースのアプローチよりもユーザのプライバシ保護のメリットを提供する。
しかし、それは必然的にモデルをユーザーデバイスに保存し、新しい脆弱性、特にモデルステアリング攻撃と知的財産権侵害を導入している。
Trusted Execution Environments (TEEs)のようなシステムレベルの保護は堅牢なソリューションを提供するが、サードパーティモデルのサポートの複雑さや現在のモバイルソリューションでの限定的な採用など、スケーラブルなデバイス上のDLモデル保護を実現する上で、実践的な課題は依然として残っている。
NVIDIAのGPUベースのTEEのようなTEE対応ハードウェアの進歩は、将来的にこれらの障害に対処する可能性がある。
現在、ウォーターマーキングはモデル盗難に対する共通の防御として機能しているが、多くのモバイルアプリ開発者は、対応する機械学習の専門知識と、オンデバイスDLモデル固有の読み取り専用および推論専用の性質に欠けており、アプリストアのようなサードパーティが、デプロイ後のモデルに既存のウォーターマーキング技術を実装するのを妨げているため、ここでも課題に直面している。
オンデバイスDLモデルの知的特性を保護するため,本論文では,オンデバイスDLモデルの可読性を再構築することで,オンデバイスDLモデルの読み取り専用制約を解除し,オンデバイスDLモデルの制約のない性質を活用して透かしパラメータを解き,モデル所有者の知的財産を保護する自動ツールであるTheMISを提案する。
様々なデータセットおよびモデル構造にわたる大規模な実験結果は、異なるメトリクスの点で、TheMISの優位性を示している。
さらに、Google Playから403の現実世界のDLモバイルアプリについて81.14%の成功率で実証調査を行い、TheMISの実用性を示している。
関連論文リスト
- TEESlice: Protecting Sensitive Neural Network Models in Trusted Execution Environments When Attackers have Pre-Trained Models [12.253529209143197]
TSDPは、TEE内のプライバシーに敏感な重みを保護し、GPUに不感な重みをオフロードする手法である。
トレーニング戦略の前に新たなパーティションを導入し,プライバシに敏感な重みをモデルの他のコンポーネントと効果的に分離する。
提案手法は, 計算コストを10倍に削減し, 完全なモデル保護を実現できることを示す。
論文 参考訳(メタデータ) (2024-11-15T04:52:11Z) - A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing [0.26107298043931193]
本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
論文 参考訳(メタデータ) (2024-11-06T11:37:30Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Beyond the Model: Data Pre-processing Attack to Deep Learning Models in
Android Apps [3.2307366446033945]
実世界のディープラーニング(DL)アプリに対するデータ処理ベースの攻撃を導入する。
我々の攻撃は、DLアプリの動作に影響を与えることなく、モデルの性能とレイテンシに影響を与える可能性がある。
MLkitを利用する320のアプリのうち、81.56%が攻撃に成功していることがわかった。
論文 参考訳(メタデータ) (2023-05-06T07:35:39Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps [17.421303987300902]
本稿では,モバイルデバイス上での機械学習モデル保護に関する実証的研究について述べる。
我々は米国と中国のアプリ市場から収集された46,753個の人気アプリを分析した。
驚いたことに、MLアプリの41%はモデルを完全に保護していない。
論文 参考訳(メタデータ) (2020-02-18T16:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。