論文の概要: DistilLock: Safeguarding LLMs from Unauthorized Knowledge Distillation on the Edge
- arxiv url: http://arxiv.org/abs/2510.16716v1
- Date: Sun, 19 Oct 2025 05:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.108904
- Title: DistilLock: Safeguarding LLMs from Unauthorized Knowledge Distillation on the Edge
- Title(参考訳): DistilLock: エッジ上の無許可の知識蒸留からLLMを保護する
- Authors: Asmita Mohanty, Gezheng Kang, Lei Gao, Murali Annavaram,
- Abstract要約: DistilLockは、エッジ上のプライバシー保護のための知識蒸留を可能にする、TEE支援の微調整フレームワークである。
我々は、DistilLockが無許可の知識蒸留プロセスやモデルスティーリング攻撃を防ぐことを実証した。
- 参考スコア(独自算出の注目度): 13.266175396099248
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated strong performance across diverse tasks, but fine-tuning them typically relies on cloud-based, centralized infrastructures. This requires data owners to upload potentially sensitive data to external servers, raising serious privacy concerns. An alternative approach is to fine-tune LLMs directly on edge devices using local data; however, this introduces a new challenge: the model owner must transfer proprietary models to the edge, which risks intellectual property (IP) leakage. To address this dilemma, we propose DistilLock, a TEE-assisted fine-tuning framework that enables privacy-preserving knowledge distillation on the edge. In DistilLock, a proprietary foundation model is executed within a trusted execution environment (TEE) enclave on the data owner's device, acting as a secure black-box teacher. This setup preserves both data privacy and model IP by preventing direct access to model internals. Furthermore, DistilLock employs a model obfuscation mechanism to offload obfuscated weights to untrusted accelerators for efficient knowledge distillation without compromising security. We demonstrate that DistilLock prevents unauthorized knowledge distillation processes and model-stealing attacks while maintaining high computational efficiency, but offering a secure and practical solution for edge-based LLM personalization.
- Abstract(参考訳): 大規模言語モデル(LLM)は、さまざまなタスクにまたがって強力なパフォーマンスを示しているが、微調整は通常、クラウドベースの集中型インフラストラクチャに依存している。
これにより、データ所有者は、潜在的に機密性の高いデータを外部サーバにアップロードする必要がある。
もうひとつのアプローチは,ローカルデータを使用したエッジデバイス上でのLDMの微調整だが,モデル所有者は独自のモデルをエッジに転送しなければならないため,知的財産権(IP)漏洩のリスクがある。
このジレンマに対処するために、我々は、エッジ上のプライバシー保護知識蒸留を可能にするTEE支援の微調整フレームワークであるDistilLockを提案する。
DistilLockでは、データ所有者のデバイス上の信頼できる実行環境(TEE)内でプロプライエタリな基礎モデルが実行され、安全なブラックボックスの教師として機能する。
このセットアップは、モデル内部への直接アクセスを防止して、データプライバシとモデルIPの両方を保存する。
さらに、DistilLockは、難読化重量を信頼できない加速器にオフロードし、安全性を損なうことなく効率的な知識蒸留を行うモデル難読化機構を採用している。
DistilLockは高い計算効率を維持しながら、未承認の知識蒸留プロセスやモデルスティーリング攻撃を防止できるが、エッジベースのLLMパーソナライズのためのセキュアで実用的なソリューションを提供する。
関連論文リスト
- SDGO: Self-Discrimination-Guided Optimization for Consistent Safety in Large Language Models [48.62892618209157]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに優れるが、ジェイルブレイク攻撃には弱い。
本稿では,モデル固有の差別と生成能力の整合性を検討する。
我々の方法は、トレーニングフェーズ中に追加の注釈付きデータや外部モデルを必要としない。
論文 参考訳(メタデータ) (2025-08-21T15:26:09Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing [0.26107298043931193]
本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
論文 参考訳(メタデータ) (2024-11-06T11:37:30Z) - A Middle Path for On-Premises LLM Deployment: Preserving Privacy Without Sacrificing Model Confidentiality [20.646221081945523]
プライバシに敏感なユーザは、自身のインフラストラクチャ(オンプレミス)に大規模な言語モデル(LLM)をデプロイして、プライベートデータの保護とカスタマイズを可能にする必要がある。
小型モデルの従来の研究は、モデルの機密性とカスタマイズのバランスをとるために、ハードウェアがセキュアなデバイス内の出力層のみを確保することを模索してきた。
SOLIDはセキュアな環境下でいくつかのボトム層を確保する新しいデプロイメントフレームワークであり、トレードオフを最適化するための効率的なメトリクスを導入します。
論文 参考訳(メタデータ) (2024-10-15T02:00:36Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。