論文の概要: Cascade: Token-Sharded Private LLM Inference
- arxiv url: http://arxiv.org/abs/2507.05228v1
- Date: Mon, 07 Jul 2025 17:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.542956
- Title: Cascade: Token-Sharded Private LLM Inference
- Title(参考訳): カスケード:Token-Sharded Private LLM推論
- Authors: Rahul Thomas, Louai Zahran, Erica Choi, Akilesh Potti, Micah Goldblum, Arka Pal,
- Abstract要約: 本稿では,シークエンス次元のシャーディングを利用してプライバシを維持することで,時間的コストを回避するマルチパーティ推論プロトコルCascadeを提案する。
我々はカスケードが他の統計的プライバシスキームに対して非常に効果的である最近の攻撃の一般化に耐性があることを実証した。
- 参考スコア(独自算出の注目度): 31.561665382764076
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As LLMs continue to increase in parameter size, the computational resources required to run them are available to fewer parties. Therefore, third-party inference services -- where LLMs are hosted by third parties with significant computational resources -- are becoming increasingly popular. However, third party inference raises critical concerns about user data privacy. To mitigate these risks, privacy researchers have developed provably secure schemes for third-party inference, such as Secure Multi-Party Computation (SMPC). However, SMPC protocols have significant computational and communication overhead, and do not scale to large models. In this work, we propose a new multi-party inference protocol, Cascade, that avoids these punitive costs by leveraging sharding in the sequence dimension to maintain privacy, trading off cryptographic privacy guarantees for increased performance and scalability. We demonstrate that Cascade is resistant to a generalization of a recent attack that is highly effective against other statistical privacy schemes, and that it is further resistant to learning-based attacks. As Cascade is orders of magnitude faster than existing schemes, our findings offer practical solutions for secure deployment of modern state-of-the-art LLMs.
- Abstract(参考訳): LLMはパラメータサイズを拡大し続けており、それを実行するために必要な計算リソースは少ないパーティで利用可能である。
したがって、LLMが重要な計算資源を持つサードパーティによってホストされるサードパーティの推論サービスが、ますます人気が高まっている。
しかし、サードパーティの推論は、ユーザのデータプライバシに関する重要な懸念を提起する。
これらのリスクを軽減するために、プライバシー研究者は、セキュアなマルチパーティ計算(SMPC)のような、サードパーティの推論のための証明可能なセキュアなスキームを開発した。
しかし、SMPCプロトコルは計算と通信のオーバーヘッドが大きく、大規模モデルにはスケールしない。
本研究では,シークエンス次元のシャーディングを活用してプライバシの維持,パフォーマンスとスケーラビリティ向上のための暗号プライバシ保証の取り消しを行う,新たなマルチパーティ推論プロトコルであるCascadeを提案する。
我々はカスケードが他の統計的プライバシスキームに対して非常に効果的である最近の攻撃の一般化に耐性があることを示し、学習ベースの攻撃にさらに耐性があることを実証した。
カスケードは既存のスキームよりも桁違いに高速であるので、現代のLLMを安全に展開するための実用的なソリューションを提供する。
関連論文リスト
- FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - An Attack to Break Permutation-Based Private Third-Party Inference Schemes for LLMs [31.561665382764076]
大規模言語モデル(LLM)の最近の進歩は、サードパーティの推論サービスの普及につながっている。
Secure Multiparty Computation (SMPC) のような既存のサードパーティーの推論手法は暗号方式に依存していることが多い。
隠れた状態からほぼ完全な精度で元のプロンプトを復元できる新しい復元手法を提案する。
論文 参考訳(メタデータ) (2025-05-23T19:39:18Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Efficient Full-Stack Private Federated Deep Learning with Post-Quantum Security [17.45950557331482]
フェデレートラーニング(FL)は、データをローカルに保つことによって、ユーザのデータプライバシを保護しながら、協調的なモデルトレーニングを可能にする。
このようなアドバンテージにもかかわらず、FLはトレーニングやデプロイメント中のユーザの更新やモデルパラメータに対するプライバシ攻撃に弱いままである。
私たちは、ポストクォータムセキュアアグリゲーションを提供する新しいフレームワークであるBeskarを紹介します。
論文 参考訳(メタデータ) (2025-05-09T03:20:48Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - SSNet: A Lightweight Multi-Party Computation Scheme for Practical Privacy-Preserving Machine Learning Service in the Cloud [17.961150835215587]
MPCベースのMLフレームワークのバックボーンとして,Shamirの秘密共有(SSS)を初めて採用したSSNetを提案する。
SSNetは、パーティ番号を簡単にスケールアップする機能を示し、計算の正しさを認証するための戦略を組み込む。
当社は,Amazon AWSによる商用クラウドコンピューティングインフラストラクチャに関する総合的な実験的評価を実施している。
論文 参考訳(メタデータ) (2024-06-04T00:55:06Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。