論文の概要: Whistledown: Combining User-Level Privacy with Conversational Coherence in LLMs
- arxiv url: http://arxiv.org/abs/2511.13319v1
- Date: Mon, 17 Nov 2025 12:56:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.213537
- Title: Whistledown: Combining User-Level Privacy with Conversational Coherence in LLMs
- Title(参考訳): Whistledown: LLMにおけるユーザレベルプライバシと会話コヒーレンスの組み合わせ
- Authors: Chelsea McMurray, Hayder Tirmazi,
- Abstract要約: Whistledownは、大きな言語モデル(LLM)に送信される前にプロンプトを変更する、最善のプライバシ層である。
Whistledownは、匿名化とローカルな差分プライバシー($-LDP)と変換キャッシュを組み合わせて、会話ユーティリティを犠牲にすることなく、最高のプライバシー保護を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Users increasingly rely on large language models (LLMs) for personal, emotionally charged, and socially sensitive conversations. However, prompts sent to cloud-hosted models can contain personally identifiable information (PII) that users do not want logged, retained, or leaked. We observe this to be especially acute when users discuss friends, coworkers, or adversaries, i.e., when they spill the tea. Enterprises face the same challenge when they want to use LLMs for internal communication and decision-making. In this whitepaper, we present Whistledown, a best-effort privacy layer that modifies prompts before they are sent to the LLM. Whistledown combines pseudonymization and $ε$-local differential privacy ($ε$-LDP) with transformation caching to provide best-effort privacy protection without sacrificing conversational utility. Whistledown is designed to have low compute and memory overhead, allowing it to be deployed directly on a client's device in the case of individual users. For enterprise users, Whistledown is deployed centrally within a zero-trust gateway that runs on an enterprise's trusted infrastructure. Whistledown requires no changes to the existing APIs of popular LLM providers.
- Abstract(参考訳): ユーザーは、個人的、感情的に充電され、社会的に敏感な会話に、より大きな言語モデル(LLM)をますます頼りにしている。
しかし、クラウドにホストされたモデルに送信されるプロンプトには、ユーザがログイン、保持、リークを望まない個人識別可能な情報(PII)が含まれている。
友人、同僚、敵、すなわちお茶をこぼすときに、特に急速に議論する。
社内コミュニケーションや意思決定にLLMを使用したい企業は、同じ課題に直面します。
このホワイトペーパーでは、LLMに送られる前にプロンプトを変更する最善のプライバシー層であるWhistledownを紹介します。
Whistledownは、匿名化とε$-local differential privacy(ε$-LDP)と変換キャッシュを組み合わせて、会話ユーティリティを犠牲にすることなく、最高のプライバシー保護を提供する。
Whistledownは計算とメモリのオーバーヘッドが低いように設計されており、個々のユーザの場合、クライアントのデバイスに直接デプロイできる。
エンタープライズユーザにとって、Whistledownは、企業の信頼できるインフラストラクチャ上で動作するゼロトラストゲートウェイ内に、集中的にデプロイされる。
Whistledownは、人気のあるLLMプロバイダの既存のAPIを変更する必要はない。
関連論文リスト
- Guarding Your Conversations: Privacy Gatekeepers for Secure Interactions with Cloud-Based AI Models [0.34998703934432673]
ユーザクエリから機密情報をフィルタリングする,軽量でローカルな実行モデルであるLLMゲートキーパのコンセプトを提案する。
人間の被験者による実験を通して、この二重モデルアプローチは、LLM応答の品質を損なうことなく、ユーザのプライバシーを大幅に向上させながら、最小限のオーバーヘッドをもたらすことを示した。
論文 参考訳(メタデータ) (2025-08-22T19:49:03Z) - Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences [73.5779077857545]
ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築します。
軽量なローカルLCMを用いた実験では、微調整後、はるかに大きなゼロショットモデルの性能を著しく上回った。
同時に、このシステムは、ユーザー定義プライバシの好みをよりよく理解したモデルの必要性を強調し、ユーザー指示に完全に準拠するという課題に直面している。
論文 参考訳(メタデータ) (2025-07-07T18:22:55Z) - DP-Fusion: Token-Level Differentially Private Inference for Large Language Models [51.71591819896191]
大規模言語モデル(LLM)は、推論時にプライバシを保存しない。
DP-Fusion は LLM の出力にコンテキスト内のトークンの集合が持つ影響を証明的に束縛する。
提案手法は, 理論的および実証的プライバシを大幅に改善した, 証明可能な民営化文書を作成する。
論文 参考訳(メタデータ) (2025-07-06T20:49:39Z) - A General Pseudonymization Framework for Cloud-Based LLMs: Replacing Privacy Information in Controlled Text Generation [0.6699777383856287]
ChatGPTサービスはクラウドベースの大規模言語モデル(LLM)を活用する
プライバシの懸念は、モデルプロバイダによってプロンプトが送信され、処理されるときに生じる。
クラウドベースのLCMに適用可能な一般的な擬似化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T06:15:53Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - PFID: Privacy First Inference Delegation Framework for LLMs [34.59282305562392]
本稿では,LPMのためのPFIDという新しいプライバシ保護フレームワークを提案する。
モデルのシャーディングと特異値分解を通じてユーザデータをローカライズすることで、重要なプライバシー上の懸念に対処する。
論文 参考訳(メタデータ) (2024-06-18T03:27:09Z) - ConfusionPrompt: Practical Private Inference for Online Large Language Models [3.8134804426693094]
最先端の大規模言語モデル(LLM)は一般的にオンラインサービスとしてデプロイされ、ユーザーはクラウドサーバーに詳細なプロンプトを送信する必要がある。
我々は,従来のプロンプトを小さなサブプロンプトに分解することで,ユーザのプライバシを保護する,プライベートLLM推論のための新しいフレームワークであるConfusionPromptを紹介する。
コンフュージョンプロンプトは,オープンソースモデルと摂動に基づく手法を用いて,局所的推論手法よりもはるかに高い実用性を実現することを示す。
論文 参考訳(メタデータ) (2023-12-30T01:26:42Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。