論文の概要: Confidential Prompting: Protecting User Prompts from Cloud LLM Providers
- arxiv url: http://arxiv.org/abs/2409.19134v3
- Date: Tue, 04 Mar 2025 01:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 23:34:09.077079
- Title: Confidential Prompting: Protecting User Prompts from Cloud LLM Providers
- Title(参考訳): Confidential Prompting: クラウドLLMプロバイダからユーザプロンプトを保護する
- Authors: In Gim, Caihua Li, Lin Zhong,
- Abstract要約: クラウドホスト型大規模言語モデル(LLM)サービスにおけるユーザインプットの確保という課題に対処する。
秘密計算を用いてユーザプロンプトを信頼された実行環境に閉じ込めるセキュアなパーティショルドデコーディング(SPD)を導入する。
また,新しい暗号手法であるPrompt Obfuscation(PO)を導入し,SPDに対する復元攻撃に対する堅牢性を確保する。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License:
- Abstract: Our work tackles the challenge of securing user inputs in cloud-hosted large language model (LLM) serving while ensuring model confidentiality, output invariance, and compute efficiency. We introduce Secure Partitioned Decoding (SPD), which uses confidential computing to confine user prompts to a trusted execution environment (TEE), namely a confidential virtual machine (CVM), while allowing service providers to generate tokens efficiently. We also introduce a novel cryptographic method, Prompt Obfuscation (PO), to ensure robustness against reconstruction attacks on SPD. We demonstrate our approach preserves both prompt confidentiality and LLM serving efficiency. Our solution enables privacy-preserving cloud LLM serving that handles sensitive prompts, such as clinical records, financial data, and personal information.
- Abstract(参考訳): 本研究は,クラウドホスト型大規模言語モデル(LLM)におけるユーザインプットの確保と,モデルの機密性,出力不変性,計算効率の確保を課題とする。
機密計算を用いてユーザプロンプトを信頼された実行環境(TEE)、すなわち機密仮想マシン(CVM)に限定し、サービスプロバイダがトークンを効率的に生成できるようにする。
また,新しい暗号手法であるPrompt Obfuscation(PO)を導入し,SPDに対する復元攻撃に対する堅牢性を確保する。
提案手法は, 迅速な秘密保持とLCM機能効率の両立を実証する。
我々のソリューションは、臨床記録、財務データ、個人情報などの機密性の高いプロンプトを処理するプライバシー保護クラウドLLMサービスを可能にする。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PFID: Privacy First Inference Delegation Framework for LLMs [34.59282305562392]
本稿では,LPMのためのPFIDという新しいプライバシ保護フレームワークを提案する。
モデルのシャーディングと特異値分解を通じてユーザデータをローカライズすることで、重要なプライバシー上の懸念に対処する。
論文 参考訳(メタデータ) (2024-06-18T03:27:09Z) - EmojiCrypt: Prompt Encryption for Secure Communication with Large
Language Models [41.090214475309516]
クラウドベースの大規模言語モデル(LLM)は、データ漏洩と機密情報への不正アクセスの重大なリスクを引き起こす。
本稿では,ユーザプライバシ保護のためのシンプルかつ効果的なメカニズムであるEmojiCryptを提案する。
論文 参考訳(メタデータ) (2024-02-08T17:57:11Z) - ConfusionPrompt: Practical Private Inference for Online Large Language Models [3.8134804426693094]
最先端の大規模言語モデル(LLM)は一般的にオンラインサービスとしてデプロイされ、ユーザーはクラウドサーバーに詳細なプロンプトを送信する必要がある。
我々は,従来のプロンプトを小さなサブプロンプトに分解することで,ユーザのプライバシを保護する,プライベートLLM推論のための新しいフレームワークであるConfusionPromptを紹介する。
コンフュージョンプロンプトは,オープンソースモデルと摂動に基づく手法を用いて,局所的推論手法よりもはるかに高い実用性を実現することを示す。
論文 参考訳(メタデータ) (2023-12-30T01:26:42Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple [2.3518279773643287]
非信頼なクラウドにプライバシ保護機械学習アプリケーションをデプロイするための実践的なフレームワークを提案する。
我々は、モデルパラメータと暗号化された入力データを備えたIntel SGXエンクレーブでPyTorch MLアプリケーションを動作させることで、修正されていないPyTorch MLアプリケーションを保護する。
私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、いかなる方法でアプリケーションを変更する必要もありません。
論文 参考訳(メタデータ) (2020-09-09T16:16:06Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。