論文の概要: Optimizing Privacy-Preserving Primitives to Support LLM-Scale Applications
- arxiv url: http://arxiv.org/abs/2509.25072v1
- Date: Mon, 29 Sep 2025 17:16:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.153835
- Title: Optimizing Privacy-Preserving Primitives to Support LLM-Scale Applications
- Title(参考訳): LLMスケールアプリケーションをサポートするプライバシ保護プリミティブの最適化
- Authors: Yaman Jandali, Ruisi Zhang, Nojan Sheybani, Farinaz Koushanfar,
- Abstract要約: 本稿では,プライバシー保護学習システムにおける,このオーバーヘッドと実践性のギャップを埋めるための取り組みの概要を紹介する。
プライバシー保護設定におけるLLMスケールアプリケーションの実現に向けた進展を示す。
- 参考スコア(独自算出の注目度): 13.665746704069837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving technologies have introduced a paradigm shift that allows for realizable secure computing in real-world systems. The significant barrier to the practical adoption of these primitives is the computational and communication overhead that is incurred when applied at scale. In this paper, we present an overview of our efforts to bridge the gap between this overhead and practicality for privacy-preserving learning systems using multi-party computation (MPC), zero-knowledge proofs (ZKPs), and fully homomorphic encryption (FHE). Through meticulous hardware/software/algorithm co-design, we show progress towards enabling LLM-scale applications in privacy-preserving settings. We demonstrate the efficacy of our solutions in several contexts, including DNN IP ownership, ethical LLM usage enforcement, and transformer inference.
- Abstract(参考訳): プライバシ保護技術は、現実世界のシステムで実現可能なセキュアなコンピューティングを可能にするパラダイムシフトを導入している。
これらのプリミティブを実践的に採用する上で重要な障壁は、大規模に適用した場合に発生する計算と通信のオーバーヘッドである。
本稿では、マルチパーティ計算(MPC)、ゼロ知識証明(ZKP)、完全同型暗号化(FHE)を用いたプライバシー保護学習システムにおける、このオーバーヘッドと実践性のギャップを埋める取り組みの概要について述べる。
ハードウェア/ソフトウェア/アルゴリズムの共同設計を通じて、プライバシー保護設定におけるLLMスケールアプリケーションの実現に向けた進展を示す。
DNNのIPオーナシップ、倫理的LLM使用法、トランスフォーマー推論など、いくつかの文脈でソリューションの有効性を実証する。
関連論文リスト
- SecP-Tuning: Efficient Privacy-Preserving Prompt Tuning for Large Language Models via MPC [45.27141187385785]
大規模言語モデル(LLM)は多くの分野に革命をもたらしたが、医療やファイナンスといったプライバシーに敏感な分野の特殊タスクへの適応には制約が残っている。
セキュアなマルチパーティ計算(MPC)ベースのプライバシ保護機械学習は、モデルパラメータとデータのプライバシに関する理論的保証を提供する。
提案するSecP-Tuningは,LLMの効率的なプライバシ保護プロンプトチューニングを目的とした,最初のMPCベースのフレームワークである。
論文 参考訳(メタデータ) (2025-06-18T09:36:57Z) - A Survey On Secure Machine Learning [0.0]
セキュアマルチパーティ計算(MPC)の最近の進歩は、機械学習(ML)領域における適用性を著しく改善している。
このレビューでは、MPCを活用して、データのプライバシを損なうことなく、複数のパーティがMLタスクに参加できるようにする重要なコントリビューションについて検討する。
特殊なソフトウェアフレームワークやドメイン固有言語といった革新は、MLにおけるMPCの採用を合理化している。
論文 参考訳(メタデータ) (2025-05-21T05:19:45Z) - Encryption-Friendly LLM Architecture [11.386436468650016]
ホモモルフィック暗号(homomorphic encryption, HE)は、暗号状態における算術演算をサポートする暗号プロトコルである。
本稿では,パーソナライズされた(プライベートな)微調整による推論を重視した改良型HE-Friendly Transformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-03T13:48:35Z) - Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML [4.92218040320554]
フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
論文 参考訳(メタデータ) (2024-09-14T01:23:26Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。