論文の概要: OSNIP: Breaking the Privacy-Utility-Efficiency Trilemma in LLM Inference via Obfuscated Semantic Null Space
- arxiv url: http://arxiv.org/abs/2601.22752v1
- Date: Fri, 30 Jan 2026 09:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.350053
- Title: OSNIP: Breaking the Privacy-Utility-Efficiency Trilemma in LLM Inference via Obfuscated Semantic Null Space
- Title(参考訳): OSNIP:難解なセマンティックヌル空間を経由したLLM推論におけるプライバシ・ユーティリティ・エフェクシビリティ・トリレンマの破滅
- Authors: Zhiyuan Cao, Zeyu Ma, Chenhao Yang, Han Zheng, Mingang Chen,
- Abstract要約: プライバシー保護LLM推論のための軽量クライアント側暗号化フレームワークであるObfuscated Semantic Null space Injection for Privacy (OSNIP)を提案する。
難解なセマンティックヌル空間」は、元の埋め込みにほぼ直交しながら意味的忠実性を保った高次元の制度である。
OSNIPは最先端のパフォーマンスを実現し、厳格なセキュリティ制約の下で強力なモデルユーティリティを維持しながら、攻撃成功率を大幅に削減する。
- 参考スコア(独自算出の注目度): 5.910409435566113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Obfuscated Semantic Null space Injection for Privacy (OSNIP), a lightweight client-side encryption framework for privacy-preserving LLM inference. Generalizing the geometric intuition of linear kernels to the high-dimensional latent space of LLMs, we formally define the ``Obfuscated Semantic Null Space'', a high-dimensional regime that preserves semantic fidelity while enforcing near-orthogonality to the original embedding. By injecting perturbations that project the original embedding into this space, OSNIP ensures privacy without any post-processing. Furthermore, OSNIP employs a key-dependent stochastic mapping that synthesizes individualized perturbation trajectories unique to each user. Evaluations on 12 generative and classification benchmarks show that OSNIP achieves state-of-the-art performance, sharply reducing attack success rates while maintaining strong model utility under strict security constraints.
- Abstract(参考訳): プライバシー保護LLM推論のための軽量クライアント側暗号化フレームワークであるObfuscated Semantic Null space Injection for Privacy (OSNIP)を提案する。
線形核の幾何学的直観をLLMの高次元潜在空間に一般化し、元の埋め込みにほぼ直交性を持ちながら意味的忠実性を保った高次元状態である 'Obfuscated Semantic Null Space'' を正式に定義する。
オリジナルの埋め込みをこの空間に投影する摂動を注入することで、OSNIPは後処理なしでプライバシーを確保する。
さらに、OSNIPは、各ユーザ固有の個別摂動軌跡を合成する、鍵依存確率写像を採用している。
12のジェネレーティブおよび分類ベンチマークの評価は、OSNIPが最先端のパフォーマンスを達成し、攻撃成功率を著しく低減し、厳格なセキュリティ制約の下で強力なモデルユーティリティを維持していることを示している。
関連論文リスト
- NeuroFilter: Privacy Guardrails for Conversational LLM Agents [50.75206727081996]
本研究は,エージェント型大規模言語モデル(LLM)のプライバシを強制する際の計算上の課題に対処する。
NeuroFilterは、標準違反をモデルのアクティベーション空間における単純な方向にマッピングすることで、コンテキスト整合性を運用するガードレールフレームワークである。
7Bから70Bパラメータのモデルをカバーする15万以上のインタラクションに対する包括的な評価は、NeuroFilterの強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2026-01-21T05:16:50Z) - PRISM: Privacy-Aware Routing for Adaptive Cloud-Edge LLM Inference via Semantic Sketch Collaboration [8.776463501718737]
プライバシと推論品質を動的にバランスさせるコンテキスト認識フレームワークを提案する。
PRISMは,(1)エッジデバイスがエンティティレベルの感度をプロファイルし,(2)エッジ上のソフトゲーティングモジュールが実行モード - クラウド,エッジ,あるいはコラボレーションを選択し,(3)協調経路に対して,(3)エッジがエンティティリスクに基づいて適応的な2層局所微分プライバシーを適用し,(4)クラウドLLMが乱れたプロンプトからセマンティックスケッチを生成する。
論文 参考訳(メタデータ) (2025-11-27T22:32:33Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - DPZero: Private Fine-Tuning of Language Models without Backpropagation [49.365749361283704]
DPZeroは、ほぼ次元に依存しない新しいゼロオーダーアルゴリズムである。
DPZeroのメモリ効率は、いくつかの下流タスクでプライベートに微調整されたRoBERTaとOPTで実証される。
論文 参考訳(メタデータ) (2023-10-14T18:42:56Z) - Dynamic Privacy Allocation for Locally Differentially Private Federated
Learning with Composite Objectives [10.528569272279999]
本稿では,強い凸性を持つが非滑らかな問題に対する差分プライベートなフェデレーション学習アルゴリズムを提案する。
提案アルゴリズムは、共有情報に人工ノイズを加えてプライバシーを確保するとともに、時間変化のノイズ分散を動的に割り当て、最適化誤差の上限を最小化する。
解析結果から,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-02T13:30:33Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Generalized Linear Bandits with Local Differential Privacy [4.922800530841394]
パーソナライズドメディカルやオンライン広告などの多くのアプリケーションは、効果的な学習のために個人固有の情報を活用する必要がある。
これは、局所微分プライバシー(LDP)というプライバシーの厳格な概念を文脈的盗賊に導入する動機となっている。
本稿では,一般線形バンドレットに対するLDPアルゴリズムを設計し,非プライバシ設定と同じ後悔点を実現する。
論文 参考訳(メタデータ) (2021-06-07T06:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。