論文の概要: Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications
- arxiv url: http://arxiv.org/abs/2410.02462v1
- Date: Mon, 16 Sep 2024 20:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 03:11:05.527408
- Title: Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications
- Title(参考訳): リアルタイム機械学習アプリケーションのためのスケーラブルな微分プライバシー機構
- Authors: Jessica Smith, David Williams, Emily Brown,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly integrated into real-time machine learning applications, where safeguarding user privacy is paramount. Traditional differential privacy mechanisms often struggle to balance privacy and accuracy, particularly in fast-changing environments with continuously flowing data. To address these issues, we introduce Scalable Differential Privacy (SDP), a framework tailored for real-time machine learning that emphasizes both robust privacy guarantees and enhanced model performance. SDP employs a hierarchical architecture to facilitate efficient noise aggregation across various learning agents. By integrating adaptive noise scheduling and gradient compression methods, our approach minimizes performance degradation while ensuring significant privacy protection. Extensive experiments on diverse datasets reveal that SDP maintains high accuracy levels while applying differential privacy effectively, showcasing its suitability for deployment in sensitive domains. This advancement points towards the potential for widespread adoption of privacy-preserving techniques in machine learning workflows.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
これらの問題に対処するために、我々は、堅牢なプライバシ保証とモデルパフォーマンスの向上の両方を強調するリアルタイム機械学習に適したフレームワークであるScalable Differential Privacy (SDP)を紹介します。
SDPは、様々な学習エージェント間の効率的なノイズアグリゲーションを容易にするために階層的アーキテクチャを採用している。
適応的なノイズスケジューリングと勾配圧縮を組み合わせることで,プライバシー保護を確保しつつ,性能劣化を最小限に抑えることができる。
多様なデータセットに対する大規模な実験により、SDPは高い精度を維持しつつ、差分プライバシーを効果的に適用していることが明らかになった。
この進歩は、機械学習ワークフローでプライバシ保護技術が広く採用される可能性を示している。
関連論文リスト
- Privacy-Preserving Federated Learning with Differentially Private Hyperdimensional Computing [5.667290129954206]
フェデレートラーニング(FL)はIoT(Internet of Things)環境での効率的なデータ交換に不可欠である。
プライバシ保護によるフェデレーションハイパー次元コンピューティング(FedHDPrivacy)について紹介する。
FedHDPrivacyは、前回のラウンドから累積ノイズを理論的に追跡することで、プライバシとパフォーマンスのバランスを慎重に管理する。
論文 参考訳(メタデータ) (2024-11-02T05:00:44Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - DiSK: Differentially Private Optimizer with Simplified Kalman Filter for Noise Reduction [57.83978915843095]
本稿では,微分プライベート勾配の性能を著しく向上する新しいフレームワークであるDiSKを紹介する。
大規模トレーニングの実用性を確保するため,Kalmanフィルタプロセスを簡素化し,メモリと計算要求を最小化する。
論文 参考訳(メタデータ) (2024-10-04T19:30:39Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management [23.847568516724937]
本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Improving the Privacy and Practicality of Objective Perturbation for
Differentially Private Linear Learners [21.162924003105484]
本稿では、より厳密なプライバシー分析と新しい計算ツールにより、目的摂動機構を改良する。
DP-SGDは、非自明なプライバシーのオーバーヘッドと、線形回帰やロジスティック回帰のような単純なモデルに余計な計算複雑性を必要とする。
論文 参考訳(メタデータ) (2023-12-31T20:32:30Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Statistical Privacy Guarantees of Machine Learning Preprocessing
Techniques [1.198727138090351]
機械学習パイプラインのプライバシレベルを測定するために,統計的手法に基づくプライバシ違反検出フレームワークを適用した。
新たに作成されたフレームワークを適用して、不均衡なデータセットを扱う際に使用される再サンプリング技術によって、結果のモデルがよりプライバシーを漏洩することを示す。
論文 参考訳(メタデータ) (2021-09-06T14:08:47Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。