論文の概要: Towards Privacy-Preserving LLM Inference via Collaborative Obfuscation (Technical Report)
- arxiv url: http://arxiv.org/abs/2603.01499v1
- Date: Mon, 02 Mar 2026 06:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.712467
- Title: Towards Privacy-Preserving LLM Inference via Collaborative Obfuscation (Technical Report)
- Title(参考訳): 協調的難読化によるLLM推論のプライバシ保護に向けて(技術報告)
- Authors: Yu Lin, Qizhi Zhang, Wenqiang Ruan, Daode Zhang, Jue Hong, Ye Wu, Hanning Xia, Yunlong Mao, Sheng Zhong,
- Abstract要約: AloePriは、産業アプリケーションのための最初のプライバシ保護型LCM推論手法である。
本稿では,AloePriが0.0%3.5%の精度低下を引き起こし,平文推論に匹敵する効率を示すことを示す。
- 参考スコア(独自算出の注目度): 11.45459291503604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of large language models (LLMs) has driven the widespread adoption of cloud-based LLM inference services, while also bringing prominent privacy risks associated with the transmission and processing of private data in remote inference. For privacy-preserving LLM inference technologies to be practically applied in industrial scenarios, three core requirements must be satisfied simultaneously: (1) Accuracy and efficiency losses should be minimized to mitigate degradation in service experience. (2) The inference process can be run on large-scale clusters consist of heterogeneous legacy xPUs. (3) Compatibility with existing LLM infrastructures should be ensured to reuse their engineering optimizations. To the best of our knowledge, none of the existing privacy-preserving LLM inference methods satisfy all the above constraints while delivering meaningful privacy guarantees. In this paper, we propose AloePri, the first privacy-preserving LLM inference method for industrial applications. AloePri protects both the input and output data by covariant obfuscation, which jointly transforms data and model parameters to achieve better accuracy and privacy. We carefully design the transformation for each model component to ensure inference accuracy and data privacy while keeping full compatibility with existing infrastructures of Language Model as a Service. AloePri has been integrated into an industrial system for the evaluation of mainstream LLMs. The evaluation on Deepseek-V3.1-Terminus model (671B parameters) demonstrates that AloePri causes accuracy loss of 0.0%~3.5% and exhibits efficiency equivalent to that of plaintext inference. Meanwhile, AloePri successfully resists state-of-the-art attacks, with less than 5\% of tokens recovered. To the best of our knowledge, AloePri is the first method to exhibit practical applicability to large-scale models in real-world systems.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な開発により、クラウドベースのLLM推論サービスが広く採用され、また、リモート推論におけるプライベートデータの送信と処理に関連するプライバシー上の重大なリスクも生じている。
産業シナリオにおいて, プライバシ保護型LCM推論技術が実用化されるためには, 1) サービス体験の劣化を軽減するために, 精度と効率の損失を最小限に抑えること, という3つのコア要件を同時に満たさなければならない。
2) 推論プロセスは異質なレガシxPUからなる大規模クラスタ上で実行することができる。
3) 既存のLLMインフラとの互換性は, 工学的最適化の再利用を確実にするべきである。
我々の知る限りでは、既存のプライバシー保護LLM推論手法は上記の制約をすべて満たさず、重要なプライバシー保証を提供する。
本稿では,産業アプリケーションのための最初のプライバシ保護型LCM推論手法であるAloePriを提案する。
AloePriは入力データと出力データを共変難読化(covariant obfuscation)によって保護する。
言語モデル・アズ・ア・サービス(Language Model as a Service)の既存のインフラストラクチャとの完全な互換性を維持しながら、推論精度とデータのプライバシを確保するために、各モデルコンポーネントの変換を慎重に設計します。
AloePriは、主要なLCMの評価のために産業システムに統合されている。
Deepseek-V3.1-terminusモデル(671Bパラメータ)の評価は、AloePriが0.0%〜3.5%の精度損失を引き起こし、平文推論と同等の効率を示すことを示している。
一方、AloePriは最先端の攻撃に抵抗し、トークンの回収率は5倍に満たない。
我々の知る限りでは、AloePriは現実世界のシステムで大規模モデルに実用的な適用性を示す最初の方法である。
関連論文リスト
- Your Inference Request Will Become a Black Box: Confidential Inference for Cloud-based Large Language Models [39.390624817461905]
Talariaは、クライアントデータを保護するためにLarge Language Modelsパイプラインを分割する機密推論フレームワークである。
Talariaは、クライアントが制御するConfidential Virtual Machine内で、機密で重量に依存しない操作を実行する。
タラリアは最先端のトークン推論攻撃に対して防御でき、トークン再構成の精度は97.5%以上から平均1.34%まで低下する。
論文 参考訳(メタデータ) (2026-02-27T06:37:07Z) - PRISM: Privacy-Aware Routing for Adaptive Cloud-Edge LLM Inference via Semantic Sketch Collaboration [8.776463501718737]
プライバシと推論品質を動的にバランスさせるコンテキスト認識フレームワークを提案する。
PRISMは,(1)エッジデバイスがエンティティレベルの感度をプロファイルし,(2)エッジ上のソフトゲーティングモジュールが実行モード - クラウド,エッジ,あるいはコラボレーションを選択し,(3)協調経路に対して,(3)エッジがエンティティリスクに基づいて適応的な2層局所微分プライバシーを適用し,(4)クラウドLLMが乱れたプロンプトからセマンティックスケッチを生成する。
論文 参考訳(メタデータ) (2025-11-27T22:32:33Z) - SOFT: Selective Data Obfuscation for Protecting LLM Fine-tuning against Membership Inference Attacks [17.77094760401298]
メンバーシップ推論攻撃(MIA)に対する微調整大言語モデルの脆弱性について検討する。
プライバシー保護とプライバシー保護のバランスをとるために,影響のあるデータ選択を調整可能なパラメータで活用することで,プライバシーの漏洩を緩和する新しい防衛手法であるSOFTを提案する。
論文 参考訳(メタデータ) (2025-06-12T07:23:56Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - PrivacyScalpel: Enhancing LLM Privacy via Interpretable Feature Intervention with Sparse Autoencoders [8.483679748399037]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示したが、個人識別情報(PII)を記憶・漏洩することによりプライバシーリスクを生じさせる。
差分プライバシーやニューロンレベルの介入のような既存の緩和戦略は、しばしばモデルユーティリティを劣化させたり、リークを効果的に防いだりしない。
性能を維持しながらPIIリークを識別・緩和するために解釈可能性技術を活用する,新たなプライバシ保護フレームワークであるPrivacyScalpelを紹介する。
論文 参考訳(メタデータ) (2025-03-14T09:31:01Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - SecPE: Secure Prompt Ensembling for Private and Robust Large Language Models [40.1319651615647]
我々は,2つの非連結フィールド(プライベート推論と即時アンサンブル)を密に統合し,堅牢かつプライベートなLLM推論に向けた最初の試みである。
本稿では,プロンプトアンサンブルのアルゴリズム構築ブロックに対して,効率的な完全同型暗号(FHE)を設計するSecPEを提案する。
その結果、SecPEは高いクリーンな精度を維持し、わずか2.5%の効率上のオーバーヘッドを犠牲にして、より堅牢性を提供することがわかった。
論文 参考訳(メタデータ) (2025-02-02T16:40:21Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Model-based Large Language Model Customization as Service [45.92528738079333]
OpenAIやGoogleといったプロバイダによる大規模言語モデル(LLM)サービスは、一般的なタスクでは優れているが、ドメイン固有のアプリケーションではパフォーマンスが劣ることが多い。
Llamdexは、LLMのカスタマイズをサービスとして促進する新しいフレームワークで、クライアントはデータではなく、トレーニング済みのドメイン固有モデルをアップロードする。
実験によると、Llamdexは、同じプライバシー制約の下で、最先端のプライベートデータ合成メソッドに対して、ドメイン固有の精度を最大26%向上する。
論文 参考訳(メタデータ) (2024-10-14T13:18:20Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。