論文の概要: DiVa: An Accelerator for Differentially Private Machine Learning
- arxiv url: http://arxiv.org/abs/2208.12392v1
- Date: Fri, 26 Aug 2022 01:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:43:21.221328
- Title: DiVa: An Accelerator for Differentially Private Machine Learning
- Title(参考訳): DiVa: 差分プライベート機械学習のためのアクセラレータ
- Authors: Beomsik Park, Ranggi Hwang, Dongho Yoon, Yoonhyuk Choi, Minsoo Rhu
- Abstract要約: 差別化プライバシ(DP)は、プライバシー保護の実用的な標準として、業界で急速に勢いを増している。
DP-SGD という,最先端の差分型プライベートML トレーニングアルゴリズムを用いて,作業負荷の詳細な評価を行う。
そこで本研究では,差分型プライベートMLであるDiVaのアクセラレータを提案する。
- 参考スコア(独自算出の注目度): 1.054627611890905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread deployment of machine learning (ML) is raising serious
concerns on protecting the privacy of users who contributed to the collection
of training data. Differential privacy (DP) is rapidly gaining momentum in the
industry as a practical standard for privacy protection. Despite DP's
importance, however, little has been explored within the computer systems
community regarding the implication of this emerging ML algorithm on system
designs. In this work, we conduct a detailed workload characterization on a
state-of-the-art differentially private ML training algorithm named DP-SGD. We
uncover several unique properties of DP-SGD (e.g., its high memory capacity and
computation requirements vs. non-private ML), root-causing its key bottlenecks.
Based on our analysis, we propose an accelerator for differentially private ML
named DiVa, which provides a significant improvement in compute utilization,
leading to 2.6x higher energy-efficiency vs. conventional systolic arrays.
- Abstract(参考訳): 機械学習(ML)の広範な展開は、トレーニングデータの収集に貢献したユーザのプライバシ保護に対する深刻な懸念を高めている。
差別化プライバシ(DP)は、プライバシー保護の実用的な標準として、業界で急速に勢いを増している。
しかし、DPの重要性にもかかわらず、この新たなMLアルゴリズムがシステム設計に与える影響について、コンピュータシステムコミュニティ内ではほとんど調査されていない。
本研究では,DP-SGD という,最先端の差分型プライベートML トレーニングアルゴリズムの詳細なワークロード評価を行う。
DP-SGD(例えば、その高いメモリ容量と計算要求と非プライベートML)のいくつかのユニークな特性を発見し、その重要なボトルネックを根本原因とした。
そこで本研究では,計算効率を大幅に向上させ,従来のsystolicアレイに比べて2.6倍の高エネルギー効率を実現する,微分プライベートml用アクセラレータdivaを提案する。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - DiSK: Differentially Private Optimizer with Simplified Kalman Filter for Noise Reduction [57.83978915843095]
本稿では,微分プライベート勾配の性能を著しく向上する新しいフレームワークであるDiSKを紹介する。
大規模トレーニングの実用性を確保するため,Kalmanフィルタプロセスを簡素化し,メモリと計算要求を最小化する。
論文 参考訳(メタデータ) (2024-10-04T19:30:39Z) - LazyDP: Co-Designing Algorithm-Software for Scalable Training of Differentially Private Recommendation Models [8.92538797216985]
本稿ではDP-SGDを用いたプライベートRecSysトレーニングの特性について述べる。
本稿では,RecSysをDP-SGDでトレーニングする際の計算とメモリの問題に対処するアルゴリズムとソフトウェアの共同設計であるLazyDPを提案する。
最先端のDP-SGDトレーニングシステムと比較して,LazyDPが平均119倍のトレーニングスループット向上を実現していることを示す。
論文 参考訳(メタデータ) (2024-04-12T23:32:06Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - DPMLBench: Holistic Evaluation of Differentially Private Machine
Learning [8.568872924668662]
近年,DP-SGDに基づくアルゴリズムの改良が提案されている。
さらに重要なのは、これらのDPMLアルゴリズムの改善を実用性、防御能力、一般化可能性で比較する包括的な研究が欠如していることだ。
このギャップを,画像分類タスクにおけるメンバーシップ推論攻撃(MIA)に対する実用性と防御能力に関する改良DPMLアルゴリズムの総合的な測定によって埋める。
論文 参考訳(メタデータ) (2023-05-10T05:08:36Z) - DPIS: An Enhanced Mechanism for Differentially Private SGD with Importance Sampling [23.8561225168394]
ディファレンシャルプライバシ(DP)は、プライバシ保護の十分に受け入れられた標準となり、ディープニューラルネットワーク(DNN)は、機械学習において非常に成功した。
この目的のための古典的なメカニズムはDP-SGDであり、これは訓練に一般的に使用される勾配降下(SGD)の微分プライベートバージョンである。
DPISは,DP-SGDのコアのドロップイン代替として使用できる,微分プライベートなSGDトレーニングのための新しいメカニズムである。
論文 参考訳(メタデータ) (2022-10-18T07:03:14Z) - Differentially Private Reinforcement Learning with Linear Function
Approximation [3.42658286826597]
差分プライバシー(DP)制約下における有限水平マルコフ決定過程(MDP)における後悔の最小化について検討する。
本研究の結果は, 線形混合MDPにおける正則化条件の変更による学習の一般的な手順によって得られた。
論文 参考訳(メタデータ) (2022-01-18T15:25:24Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Fast and Memory Efficient Differentially Private-SGD via JL Projections [29.37156662314245]
DP-SGDは大規模ニューラルネットワークのプライベートトレーニングで知られている唯一のアルゴリズムである。
本稿では,DP-SGD-JL とDP-Adam-JL と呼ばれる差分プライベートを設計するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-05T06:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。