論文の概要: Towards Quantifying the Carbon Emissions of Differentially Private
Machine Learning
- arxiv url: http://arxiv.org/abs/2107.06946v1
- Date: Wed, 14 Jul 2021 19:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-17 04:07:01.045039
- Title: Towards Quantifying the Carbon Emissions of Differentially Private
Machine Learning
- Title(参考訳): 微分プライベート機械学習の二酸化炭素排出量の定量化に向けて
- Authors: Rakshit Naidu, Harshita Diddee, Ajinkya Mulay, Aleti Vardhan, Krithika
Ramesh, Ahmed Zamzam
- Abstract要約: 本稿では, 差分プライバシーが学習アルゴリズムに与える影響を, 炭素フットプリントの観点から検討する。
広範な実験を通じて、望ましいプライバシーレベルと二酸化炭素排出量の削減のバランスをとることのできるノイズレベルを選択するための更なるガイダンスが提供される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, machine learning techniques utilizing large-scale datasets
have achieved remarkable performance. Differential privacy, by means of adding
noise, provides strong privacy guarantees for such learning algorithms. The
cost of differential privacy is often a reduced model accuracy and a lowered
convergence speed. This paper investigates the impact of differential privacy
on learning algorithms in terms of their carbon footprint due to either longer
run-times or failed experiments. Through extensive experiments, further
guidance is provided on choosing the noise levels which can strike a balance
between desired privacy levels and reduced carbon emissions.
- Abstract(参考訳): 近年,大規模データセットを用いた機械学習技術が注目されている。
ノイズを追加することによって、差分プライバシーは、そのような学習アルゴリズムに対して強力なプライバシー保証を提供する。
差分プライバシーのコストはしばしばモデル精度の低下と収束速度の低下である。
本稿では,学習アルゴリズムにおける差分プライバシの影響について,実行時間や試験失敗によるカーボンフットプリントの観点から検討する。
広範な実験を通じて、望ましいプライバシーレベルと二酸化炭素排出量の削減のバランスをとることのできるノイズレベルを選択するための更なるガイダンスが提供される。
関連論文リスト
- Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications [0.0]
大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
論文 参考訳(メタデータ) (2024-09-16T20:52:04Z) - A Novel Review of Stability Techniques for Improved Privacy-Preserving Machine Learning [0.0]
機械学習モデルは、最近、サイズと人気が大幅に増加した。
データ漏洩に対処するため、さまざまなプライバシーフレームワークは、機械学習モデルの出力がトレーニングデータを損なわないことを保証している。
本稿では, 機械学習における民営化の悪影響を最小限に抑えるため, 安定性向上のための様々な手法について検討する。
論文 参考訳(メタデータ) (2024-05-31T00:30:29Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - On the Interaction Between Differential Privacy and Gradient Compression
in Deep Learning [55.22219308265945]
差分プライバシーと勾配圧縮のガウス的メカニズムがディープラーニングにおけるテスト精度にどのように影響するかを考察する。
勾配圧縮は一般に非プライベートトレーニングではテスト精度に悪影響を及ぼすが、差分プライベートトレーニングではテスト精度を改善することがある。
論文 参考訳(メタデータ) (2022-11-01T20:28:45Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Not all noise is accounted equally: How differentially private learning
benefits from large sampling rates [0.0]
差分的にプライベートなSGDでは、各トレーニングイテレーションで計算された勾配は2種類のノイズを受ける。
本研究では,これらの2種類のノイズが,プライベートニューラルネットワークの有用性に与える影響について検討した。
雑音の比率を、より固有で付加的な雑音にシフトさせる訓練パラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-12T18:11:31Z) - Statistical Privacy Guarantees of Machine Learning Preprocessing
Techniques [1.198727138090351]
機械学習パイプラインのプライバシレベルを測定するために,統計的手法に基づくプライバシ違反検出フレームワークを適用した。
新たに作成されたフレームワークを適用して、不均衡なデータセットを扱う際に使用される再サンプリング技術によって、結果のモデルがよりプライバシーを漏洩することを示す。
論文 参考訳(メタデータ) (2021-09-06T14:08:47Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - On Dynamic Noise Influence in Differentially Private Learning [102.6791870228147]
Private Gradient Descent (PGD)は一般的に使用されるプライベート学習フレームワークであり、差分プロトコルに基づいてノイズを発生する。
最近の研究では、emphdynamic privacy schedulesは最終イテレーションで改善できるが、そのようなスケジュールの有効性の理論は限られている。
本稿では,これらの重要な質問に答えるために,動的プライバシスケジュールにおけるノイズの影響を総合的に分析する。
論文 参考訳(メタデータ) (2021-01-19T02:04:00Z) - Gradient Sparsification Can Improve Performance of
Differentially-Private Convex Machine Learning [14.497406777219112]
個人機械学習モデルの性能に対する差分プライバシノイズの悪影響を軽減するために勾配スペーシフィケーションを用いる。
差分偏差勾配の評価には圧縮センシングと付加ラプラス雑音を用いる。
論文 参考訳(メタデータ) (2020-11-30T06:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。