論文の概要: MirageNet:A Secure, Efficient, and Scalable On-Device Model Protection in Heterogeneous TEE and GPU System
- arxiv url: http://arxiv.org/abs/2601.13826v1
- Date: Tue, 20 Jan 2026 10:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.265765
- Title: MirageNet:A Secure, Efficient, and Scalable On-Device Model Protection in Heterogeneous TEE and GPU System
- Title(参考訳): MirageNet:異種TEEとGPUシステムにおけるセキュアで効率的でスケーラブルなオンデバイスモデル保護
- Authors: Huadi Zheng, Li Cheng, Yan Ding,
- Abstract要約: モデルトレーニングのコストとユーザエクスペリエンスの要件が高ければ、モデルのプライバシとランタイムオーバーヘッドのバランスをとることが重要です。
本稿では,モデルの機密性や整合性を保ちながら,低レイテンシと高精度を実現する新しい難読化手法であるConvShatterを提案する。
- 参考スコア(独自算出の注目度): 8.936421130707204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As edge devices gain stronger computing power, deploying high-performance DNN models on untrusted hardware has become a practical approach to cut inference latency and protect user data privacy. Given high model training costs and user experience requirements, balancing model privacy and low runtime overhead is critical. TEEs offer a viable defense, and prior work has proposed heterogeneous GPU-TEE inference frameworks via parameter obfuscation to balance efficiency and confidentiality. However, recent studies find partial obfuscation defenses ineffective, while robust schemes cause unacceptable latency. To resolve these issues, we propose ConvShatter, a novel obfuscation scheme that achieves low latency and high accuracy while preserving model confidentiality and integrity. It leverages convolution linearity to decompose kernels into critical and common ones, inject confounding decoys, and permute channel/kernel orders. Pre-deployment, it performs kernel decomposition, decoy injection and order obfuscation, storing minimal recovery parameters securely in the TEE. During inference, the TEE reconstructs outputs of obfuscated convolutional layers. Extensive experiments show ConvShatter substantially reduces latency overhead with strong security guarantees; versus comparable schemes, it cuts overhead by 16% relative to GroupCover while maintaining accuracy on par with the original model.
- Abstract(参考訳): エッジデバイスがより強力なコンピューティングパワーを獲得するにつれ、信頼できないハードウェアに高性能なDNNモデルをデプロイすることは、推論レイテンシを削減し、ユーザのデータプライバシを保護するための実践的なアプローチとなっている。
モデルトレーニングのコストとユーザエクスペリエンスの要件が高ければ、モデルのプライバシとランタイムオーバーヘッドのバランスをとることが重要です。
TEEは有効な防御を提供し、以前の作業では、効率性と機密性のバランスをとるためにパラメータ難読化を通じて、異種GPU-TEE推論フレームワークを提案していた。
しかし、最近の研究では、部分的な難読化防御は効果がないが、ロバストなスキームは許容できない遅延を引き起こす。
これらの問題を解決するために,モデルの機密性や整合性を保ちながら低レイテンシと高精度を実現する新しい難読化手法であるConvShatterを提案する。
畳み込み線形性を活用して、カーネルをクリティカルで共通なものに分解し、デコイを注入し、チャネル/カーネルの順序をパーミュートする。
デプロイ前は、カーネルの分解、デコイ注入、オーダの難読化を実行し、TEEに最小のリカバリパラメータを安全に格納する。
推論中、TEEは難解な畳み込み層の出力を再構成する。
大規模な実験では、ConvShatterは強力なセキュリティ保証によって遅延オーバーヘッドを大幅に削減している。
関連論文リスト
- AmbShield: Enhancing Physical Layer Security with Ambient Backscatter Devices against Eavesdroppers [69.56534335936534]
AmbShieldは自然分布のAmBDを利用して正規チャネルを強化し、eavesdropperを分解するAmBD支援PSSスキームである。
AmbShieldでは、AmBDはランダムに後方散乱して盗聴者の干渉を発生させるフレンドリーなジャマーとして利用され、受動的リレーは所望の信号を後方散乱して正当な装置の容量を高める。
論文 参考訳(メタデータ) (2026-01-14T20:56:50Z) - Optimistic TEE-Rollups: A Hybrid Architecture for Scalable and Verifiable Generative AI Inference on Blockchain [4.254924788681319]
我々は制約を調和させるハイブリッド検証プロトコルであるOptimistic TEE-Rollups (OTR)を紹介する。
OTRは集中ベースラインのスループットの99%を達成している。
論文 参考訳(メタデータ) (2025-12-23T09:16:41Z) - Amulet: Fast TEE-Shielded Inference for On-Device Model Protection [15.936694312917512]
オンデバイス機械学習(ML)では、モデルのプライバシに関する新たなセキュリティ上の懸念が導入されている。
ユーザデバイス上で価値あるトレーニングされたMLモデルをストアすることは、敵による潜在的な抽出に公開する。
MLモデル保護のための高速TEEシールドオンデバイス推論フレームワークであるAmuletを提案する。
論文 参考訳(メタデータ) (2025-12-08T12:22:51Z) - Towards Confidential and Efficient LLM Inference with Dual Privacy Protection [11.22744810136105]
本稿では,信頼度の高いモデル推論フレームワークCMIFを提案する。
CMIFは秘密裏に、クライアントサイドのTEEとその後のレイヤに埋め込み層をGPUサーバにデプロイする。
また、Report-Noisy-Max機構を最適化し、モデル性能をわずかに低下させて機密入力を保護する。
論文 参考訳(メタデータ) (2025-09-11T01:54:13Z) - Practical and Private Hybrid ML Inference with Fully Homomorphic Encryption [0.34953784594970894]
Safhireはハイブリッド推論フレームワークで、サーバ上で暗号化されたリニアレイヤを実行する。
正確なアクティベーションをサポートし、計算を大幅に削減する。
Orionよりも1.5倍から10.5倍低い推論レイテンシを実現している。
論文 参考訳(メタデータ) (2025-09-01T08:43:46Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - MirrorNet: A TEE-Friendly Framework for Secure On-device DNN Inference [14.08010398777227]
ディープニューラルネットワーク(DNN)モデルは、リアルタイム推論のためのエッジデバイスで普及している。
既存の防御アプローチでは、モデルの機密性を完全に保護できないか、あるいは重大なレイテンシの問題が発生する。
本稿では、モデル機密性を保護するため、任意のDNNモデルに対してTEEフレンドリーな実装を生成するMirrorNetを提案する。
評価のために、MirrorNetは認証と違法使用の間に18.6%の精度差を達成でき、ハードウェアオーバーヘッドは0.99%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-16T01:21:19Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。