論文の概要: Private Transformer Inference in MLaaS: A Survey
- arxiv url: http://arxiv.org/abs/2505.10315v1
- Date: Thu, 15 May 2025 14:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.34498
- Title: Private Transformer Inference in MLaaS: A Survey
- Title(参考訳): MLaaSにおけるプライベートトランスフォーマー推論: 調査
- Authors: Yang Li, Xinyu Zhou, Yitong Wang, Liangxin Qian, Jun Zhao,
- Abstract要約: プライベートトランスフォーマー推論(Private Transformer Inference, PTI)は、暗号技術を利用したソリューションである。
本稿では、最近のPTIの進歩を概観し、最先端のソリューションと課題を明らかにする。
- 参考スコア(独自算出の注目度): 17.38462391595219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer models have revolutionized AI, powering applications like content generation and sentiment analysis. However, their deployment in Machine Learning as a Service (MLaaS) raises significant privacy concerns, primarily due to the centralized processing of sensitive user data. Private Transformer Inference (PTI) offers a solution by utilizing cryptographic techniques such as secure multi-party computation and homomorphic encryption, enabling inference while preserving both user data and model privacy. This paper reviews recent PTI advancements, highlighting state-of-the-art solutions and challenges. We also introduce a structured taxonomy and evaluation framework for PTI, focusing on balancing resource efficiency with privacy and bridging the gap between high-performance inference and data privacy.
- Abstract(参考訳): トランスフォーマーモデルはAIに革命をもたらし、コンテンツ生成や感情分析といったアプリケーションに力を与えている。
しかしながら、機械学習・アズ・ア・サービス(MLaaS)へのデプロイメントは、主にセンシティブなユーザデータの集中処理のために、重要なプライバシー上の懸念を提起する。
プライベートトランスフォーマー推論(Private Transformer Inference, PTI)は、セキュアなマルチパーティ計算や同型暗号化といった暗号化技術を活用することで、ユーザデータとモデルプライバシの両方を保持しながら推論を可能にするソリューションを提供する。
本稿では、最近のPTIの進歩を概観し、最先端のソリューションと課題を明らかにする。
また,資源効率とプライバシのバランスと,高性能推論とデータプライバシのギャップを埋めることに重点を置いて,PTIのための構造的分類・評価フレームワークも導入する。
関連論文リスト
- Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - A Survey on Private Transformer Inference [17.38462391595219]
トランスフォーマーモデルはAIに革命をもたらし、コンテンツ生成や感情分析などのアプリケーションを可能にする。
しかし、機械学習・アズ・ア・サービス(ML)における彼らの使用は、重要なプライバシー上の懸念を提起する。
Private Transformer Inference (PTI) は暗号技術を用いてこれらの問題に対処する。
論文 参考訳(メタデータ) (2024-12-11T07:05:24Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - ADePT: Auto-encoder based Differentially Private Text Transformation [22.068984615657463]
自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
論文 参考訳(メタデータ) (2021-01-29T23:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。