論文の概要: Towards Confidential and Efficient LLM Inference with Dual Privacy Protection
- arxiv url: http://arxiv.org/abs/2509.09091v1
- Date: Thu, 11 Sep 2025 01:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.198932
- Title: Towards Confidential and Efficient LLM Inference with Dual Privacy Protection
- Title(参考訳): デュアルプライバシ保護を用いた信頼性・効率的なLLM推論に向けて
- Authors: Honglan Yu, Yibin Wang, Feifei Dai, Dong Liu, Haihui Fan, Xiaoyan Gu,
- Abstract要約: 本稿では,信頼度の高いモデル推論フレームワークCMIFを提案する。
CMIFは秘密裏に、クライアントサイドのTEEとその後のレイヤに埋め込み層をGPUサーバにデプロイする。
また、Report-Noisy-Max機構を最適化し、モデル性能をわずかに低下させて機密入力を保護する。
- 参考スコア(独自算出の注目度): 11.22744810136105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CPU-based trusted execution environments (TEEs) and differential privacy (DP) have gained wide applications for private inference. Due to high inference latency in TEEs, researchers use partition-based approaches that offload linear model components to GPUs. However, dense nonlinear layers of large language models (LLMs) result in significant communication overhead between TEEs and GPUs. DP-based approaches apply random noise to protect data privacy, but this compromises LLM performance and semantic understanding. To overcome the above drawbacks, this paper proposes CMIF, a Confidential and efficient Model Inference Framework. CMIF confidentially deploys the embedding layer in the client-side TEE and subsequent layers on GPU servers. Meanwhile, it optimizes the Report-Noisy-Max mechanism to protect sensitive inputs with a slight decrease in model performance. Extensive experiments on Llama-series models demonstrate that CMIF reduces additional inference overhead in TEEs while preserving user data privacy.
- Abstract(参考訳): CPUベースの信頼できる実行環境(TEE)と差分プライバシー(DP)は、プライベート推論に広く応用されている。
TEEの推論レイテンシが高いため、研究者はリニアモデルコンポーネントをGPUにオフロードするパーティションベースのアプローチを使用している。
しかし、大規模言語モデル(LLM)の密度の高い非線形層は、TEEとGPUの間で大きな通信オーバーヘッドをもたらす。
DPベースのアプローチでは、データのプライバシを保護するためにランダムノイズを適用するが、LLMのパフォーマンスと意味理解を損なう。
以上の欠点を克服するために,信頼度と効率的なモデル推論フレームワークであるCMIFを提案する。
CMIFは秘密裏に、クライアントサイドのTEEとその後のレイヤに埋め込み層をGPUサーバにデプロイする。
一方、Report-Noisy-Maxメカニズムを最適化し、モデル性能をわずかに低下させながら機密入力を保護する。
Llamaシリーズモデルに対する大規模な実験により、CMIFはユーザデータのプライバシを保ちながら、TEEのさらなる推論オーバーヘッドを低減する。
関連論文リスト
- DP-FedLoRA: Privacy-Enhanced Federated Fine-Tuning for On-Device Large Language Models [17.265217612125905]
DP-FedLoRAは、プライバシーを強化したファインチューニングフレームワークである。
LoRAベースの適応と差分プライバシーを通信効率のよい環境で統合する。
DP-FedLoRAは、強力なプライバシ保証を提供しながら、競争性能を提供することを示す。
論文 参考訳(メタデータ) (2025-09-11T02:16:34Z) - FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - The Larger the Merrier? Efficient Large AI Model Inference in Wireless Edge Networks [56.37880529653111]
大規模計算モデル(LAIM)サービスの需要は、従来のクラウドベースの推論から、低レイテンシでプライバシ保護のアプリケーションのためのエッジベースの推論へのパラダイムシフトを推進している。
本稿では,事前学習したLAIMをデバイス上のサブモデルとサーバ上のサブモデルに分割して配置するLAIM推論方式について検討する。
論文 参考訳(メタデータ) (2025-05-14T08:18:55Z) - A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning [0.0]
Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
論文 参考訳(メタデータ) (2025-01-20T15:58:48Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning Based on Constant-Overhead Linear Secret Resharing [51.336015600778396]
本稿では,ベスト・オブ・ボス・ワールドを実現するための分散行列機構,分散DPのプライバシ向上,行列機構の実用性向上について紹介する。
我々は、異なるトレーニングイテレーションのクライアント委員会間で、一定の通信オーバーヘッドで機密値をセキュアに転送する、新しい暗号プロトコルを用いてこれを実現する。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Split-and-Denoise: Protect large language model inference with local differential privacy [2.572566198588905]
Split-N-Denoise (SnD) はプライベートな推論フレームワークであり、最小の計算コストでクライアント側でトークン埋め込み層を実行するためにモデルを分割する。
各種LLMアーキテクチャおよび下流タスク間のプライバシ・ユーティリティ・トレードオフを最適化する上で,SnDの有効性を示す。
論文 参考訳(メタデータ) (2023-10-13T14:17:33Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。