論文の概要: Scalable and Provably Accurate Algorithms for Differentially Private
Distributed Decision Tree Learning
- arxiv url: http://arxiv.org/abs/2012.10602v3
- Date: Tue, 23 Feb 2021 03:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 16:38:00.297826
- Title: Scalable and Provably Accurate Algorithms for Differentially Private
Distributed Decision Tree Learning
- Title(参考訳): 微分プライベート分散決定木学習のためのスケーラブルで確率的精度の高いアルゴリズム
- Authors: Kaiwen Wang, Travis Dick, Maria-Florina Balcan
- Abstract要約: 本稿では,分散環境での個人差分決定木学習のための,初めて証明可能な精度の高いアルゴリズムを提案する。
本論文では,一般プライバシー保護決定木学習アルゴリズムDP-TopDownを提案し,2つの分散実装を提案する。
- 参考スコア(独自算出の注目度): 34.79337646727395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the first provably accurate algorithms for
differentially private, top-down decision tree learning in the distributed
setting (Balcan et al., 2012). We propose DP-TopDown, a general privacy
preserving decision tree learning algorithm, and present two distributed
implementations. Our first method NoisyCounts naturally extends the single
machine algorithm by using the Laplace mechanism. Our second method LocalRNM
significantly reduces communication and added noise by performing local
optimization at each data holder. We provide the first utility guarantees for
differentially private top-down decision tree learning in both the single
machine and distributed settings. These guarantees show that the error of the
privately-learned decision tree quickly goes to zero provided that the dataset
is sufficiently large. Our extensive experiments on real datasets illustrate
the trade-offs of privacy, accuracy and generalization when learning private
decision trees in the distributed setting.
- Abstract(参考訳): 本稿では,分散環境での個人的,トップダウンの意思決定木学習に有効なアルゴリズムを初めて紹介する(Balcan et al., 2012)。
本稿では,プライバシ保存型決定木学習アルゴリズムdp-topdownを提案し,2つの分散実装を提案する。
最初の方法であるNoisyCountsはLaplaceメカニズムを用いて自然に単一マシンアルゴリズムを拡張します。
第2の手法であるlocalrnmは,各データホルダで局所最適化を行うことで,通信やノイズの増加を大幅に削減する。
我々は、単一マシンと分散設定の両方において、差分的にプライベートなトップダウン決定木学習のための最初のユーティリティ保証を提供する。
これらの保証は、データセットが十分に大きい場合、プライベートに学習した決定ツリーのエラーがすぐにゼロになることを示している。
実際のデータセットに関する広範な実験は、分散環境でプライベートな決定木を学習する際のプライバシー、正確性、一般化のトレードオフを示している。
関連論文リスト
- Dynamic Privacy Allocation for Locally Differentially Private Federated
Learning with Composite Objectives [10.528569272279999]
本稿では,強い凸性を持つが非滑らかな問題に対する差分プライベートなフェデレーション学習アルゴリズムを提案する。
提案アルゴリズムは、共有情報に人工ノイズを加えてプライバシーを確保するとともに、時間変化のノイズ分散を動的に割り当て、最適化誤差の上限を最小化する。
解析結果から,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-02T13:30:33Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Private Boosted Decision Trees via Smooth Re-Weighting [2.099922236065961]
微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
論文 参考訳(メタデータ) (2022-01-29T20:08:52Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。