論文の概要: Private Boosted Decision Trees via Smooth Re-Weighting
- arxiv url: http://arxiv.org/abs/2201.12648v1
- Date: Sat, 29 Jan 2022 20:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 20:00:32.221255
- Title: Private Boosted Decision Trees via Smooth Re-Weighting
- Title(参考訳): Smooth Re-Weightingによるプライベートブースト決定木
- Authors: Vahid R. Asadi, Marco L. Carmosino, Mohammadmahdi Jahanara, Akbar
Rafiey, Bahar Salamatian
- Abstract要約: 微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting the privacy of people whose data is used by machine learning
algorithms is important. Differential Privacy is the appropriate mathematical
framework for formal guarantees of privacy, and boosted decision trees are a
popular machine learning technique. So we propose and test a practical
algorithm for boosting decision trees that guarantees differential privacy.
Privacy is enforced because our booster never puts too much weight on any one
example; this ensures that each individual's data never influences a single
tree "too much." Experiments show that this boosting algorithm can produce
better model sparsity and accuracy than other differentially private ensemble
classifiers.
- Abstract(参考訳): 機械学習アルゴリズムによってデータが使用される人々のプライバシーを保護することは重要である。
差分プライバシーは、プライバシの正式な保証のための適切な数学的フレームワークであり、強化された決定木は一般的な機械学習技術である。
そこで我々は,ディファレンシャルプライバシを保証する決定木を増加させる実用的なアルゴリズムを提案し,検証する。
プライバシは、我々のブースターがいかなる例にも重みを付けないことから強制される。これにより、個々のデータの"過剰"が単一の木に影響を与えないことが保証される。
実験により、このブースティングアルゴリズムは、他の微分的にプライベートなアンサンブル分類器よりも、モデルのスパーシティと精度を向上できることが示されている。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Scalable and Provably Accurate Algorithms for Differentially Private
Distributed Decision Tree Learning [34.79337646727395]
本稿では,分散環境での個人差分決定木学習のための,初めて証明可能な精度の高いアルゴリズムを提案する。
本論文では,一般プライバシー保護決定木学習アルゴリズムDP-TopDownを提案し,2つの分散実装を提案する。
論文 参考訳(メタデータ) (2020-12-19T06:09:36Z) - Differentially Private Naive Bayes Classifier using Smooth Sensitivity [0.0]
我々は,Smooth Sensitivityのパラメータに比例した雑音を付加する,微分プライベートなNaive Bayes分類器を提供した。
実世界のデータセットを用いた実験結果から,$varepsilon$-differential privacy を保ちながら,提案手法の精度が大幅に向上したことが明らかとなった。
論文 参考訳(メタデータ) (2020-03-31T05:03:04Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。