論文の概要: CENTAUR: Bridging the Impossible Trinity of Privacy, Efficiency, and Performance in Privacy-Preserving Transformer Inference
- arxiv url: http://arxiv.org/abs/2412.10652v2
- Date: Tue, 10 Jun 2025 09:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:39.251089
- Title: CENTAUR: Bridging the Impossible Trinity of Privacy, Efficiency, and Performance in Privacy-Preserving Transformer Inference
- Title(参考訳): CENTAUR:プライバシ保存トランスフォーマー推論におけるプライバシー、効率、パフォーマンスの不可能なトリニティを橋渡しする
- Authors: Jinglong Luo, Guanzhong Chen, Yehong Zhang, Shiyu Liu, Hui Wang, Yue Yu, Xun Zhou, Yuan Qi, Zenglin Xu,
- Abstract要約: 既存のプライバシ保存トランスフォーマー推論フレームワークは、プライバシ、効率、パフォーマンスのバランスをとる"不可能"に直面しています。
我々は,SMPCとランダムな置換をシームレスに統合する画期的なフレームワークであるCENTAURを紹介する。
実験では、CENTAURが様々なデータ再構成攻撃に抵抗し、平文レベルの推論精度を達成し、推論速度を5.0~30.4倍に向上する能力を示した。
- 参考スコア(独自算出の注目度): 36.22164026463692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing deployment of pre-trained models like Transformers on cloud platforms, privacy concerns about model parameters and inference data are intensifying. Existing Privacy-Preserving Transformer Inference (PPTI) frameworks face the "impossible trinity" of balancing privacy, efficiency, and performance: Secure Multi-Party Computation (SMPC)-based approaches ensure strong privacy but suffer from high computational overhead and performance losses; Conversely, permutation-based methods achieve near-plaintext efficiency and accuracy but compromise privacy by exposing sensitive model parameters and intermediate results. Bridging this gap with a single approach presents substantial challenges, motivating the introduction of CENTAUR, a groundbreaking PPTI framework that seamlessly integrates random permutations and SMPC to address the "impossible trinity". By designing efficient PPTI algorithms tailored to the structural properties of Transformer models, CENTAUR achieves an unprecedented balance among privacy, efficiency, and performance. Our experiments demonstrate CENTAUR's ability to resist diverse data reconstruction attacks, achieve plaintext-level inference accuracy, and boost inference speed by 5.0-30.4 times, unlocking new possibilities for secure and efficient AI deployment.
- Abstract(参考訳): Transformerのような事前トレーニングされたモデルをクラウドプラットフォームに展開するにつれ、モデルパラメータや推論データに対するプライバシの懸念が高まっている。
既存のプライバシー保護トランスフォーマー推論(PPTI)フレームワークは、プライバシ、効率、パフォーマンスのバランスをとる「不可能なトリニティ」に直面している。 セキュアなマルチパーティ計算(SMPC)ベースのアプローチは、強力なプライバシを保証するが、高い計算オーバーヘッドとパフォーマンス損失を被る。
CENTAURは、ランダムな置換をシームレスに統合する画期的なPPTIフレームワークであり、SMPCは"不可能なトリニティ(impossible trinity)"に対処する。
トランスフォーマーモデルの構造特性に合わせて効率的なPPTIアルゴリズムを設計することにより、CENTAURはプライバシ、効率、性能において前例のないバランスをとることができる。
我々の実験は、CENTAURが様々なデータ再構成攻撃に抵抗し、平文レベルの推論精度を達成し、推論速度を5.0~30.4倍に向上し、安全で効率的なAIデプロイメントの新たな可能性を開くことを実証している。
関連論文リスト
- Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - A Survey on Private Transformer Inference [17.38462391595219]
トランスフォーマーモデルはAIに革命をもたらし、コンテンツ生成や感情分析などのアプリケーションを可能にする。
しかし、機械学習・アズ・ア・サービス(ML)における彼らの使用は、重要なプライバシー上の懸念を提起する。
Private Transformer Inference (PTI) は暗号技術を用いてこれらの問題に対処する。
論文 参考訳(メタデータ) (2024-12-11T07:05:24Z) - Lightweight Federated Learning with Differential Privacy and Straggler Resilience [19.94124499453864]
フェデレートラーニング(FL)は、生データの代わりにモデルパラメータ交換を通じて協調的なモデルトレーニングを可能にする。
パラメータ交換による潜在的な推論攻撃を避けるため、差分プライバシー(DP)は様々な攻撃に対して厳格な保証を提供する。
提案するLightDP-FLは,証明可能なDPをピアやサーバに対して保証する,新しい軽量なスキームである。
論文 参考訳(メタデータ) (2024-12-09T00:54:00Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - SecFormer: Fast and Accurate Privacy-Preserving Inference for Transformer Models via SMPC [34.63351580241698]
本稿では,Transformer モデルに対する高速かつ正確な PPI を実現するための SecFormer という包括的 PPI フレームワークを提案する。
効率面では、SecFormerはBERT$_textBASE$とBERT$_textLARGE$のPUMAよりも3.57倍速い。
論文 参考訳(メタデータ) (2024-01-01T15:40:35Z) - East: Efficient and Accurate Secure Transformer Framework for Inference [7.887332345182056]
本稿では,効率的なセキュアトランスフォーマー推論を実現するためのフレームワークemphEastを提案する。
Ironと比較して、1.2$times$ローランタイム内で、約1.8$times$ロー通信を実現しています。
論文 参考訳(メタデータ) (2023-08-19T06:26:14Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。