論文の概要: Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning
- arxiv url: http://arxiv.org/abs/2305.15394v2
- Date: Thu, 12 Oct 2023 12:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 03:41:24.296313
- Title: Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning
- Title(参考訳): 差動的決定木とデータ中毒に対する証明可能なロバスト性
- Authors: Dani\"el Vos, Jelle Vos, Tianyu Li, Zekeriya Erkin, Sicco Verwer
- Abstract要約: 決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
- 参考スコア(独自算出の注目度): 8.649768969060647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees are interpretable models that are well-suited to non-linear
learning problems. Much work has been done on extending decision tree learning
algorithms with differential privacy, a system that guarantees the privacy of
samples within the training data. However, current state-of-the-art algorithms
for this purpose sacrifice much utility for a small privacy benefit. These
solutions create random decision nodes that reduce decision tree accuracy or
spend an excessive share of the privacy budget on labeling leaves. Moreover,
many works do not support continuous features or leak information about them.
We propose a new method called PrivaTree based on private histograms that
chooses good splits while consuming a small privacy budget. The resulting trees
provide a significantly better privacy-utility trade-off and accept mixed
numerical and categorical data without leaking information about numerical
features. Finally, while it is notoriously hard to give robustness guarantees
against data poisoning attacks, we demonstrate bounds for the expected accuracy
and success rates of backdoor attacks against differentially-private learners.
By leveraging the better privacy-utility trade-off of PrivaTree we are able to
train decision trees with significantly better robustness against backdoor
attacks compared to regular decision trees and with meaningful theoretical
guarantees.
- Abstract(参考訳): 決定木は非線形学習問題に適した解釈可能なモデルである。
トレーニングデータ内のサンプルのプライバシを保証するシステムである差分プライバシーによって、決定木学習アルゴリズムを拡張する作業が数多く行われている。
しかし、この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
これらのソリューションはランダムな決定ノードを生成し、決定木の精度を低下させるか、ラベルの葉に過大なプライバシー予算を費やす。
さらに、多くの作品は継続的機能をサポートしていない。
少額のプライバシー予算を消費しながら、良好な分割を選択するプライベートヒストグラムに基づくprivatreeと呼ばれる新しい手法を提案する。
結果として得られるツリーは、プライバシーとユーティリティのトレードオフを著しく改善し、数値的特徴に関する情報を漏らすことなく、混合数値とカテゴリ的データを受け入れる。
最後に、データ中毒攻撃に対して堅牢性を保証することは難しいが、異なる個人学習者に対するバックドア攻撃の予測精度と成功率の限界を示す。
PrivaTreeのプライバシーとユーティリティのトレードオフを改善することで、通常の決定木に比べてバックドア攻撃に対する堅牢性が大きく向上し、有意義な理論的保証で決定木をトレーニングすることができます。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private Boosted Decision Trees via Smooth Re-Weighting [2.099922236065961]
微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
論文 参考訳(メタデータ) (2022-01-29T20:08:52Z) - Fed-EINI: An Efficient and Interpretable Inference Framework for
Decision Tree Ensembles in Federated Learning [11.843365055516566]
Fed-EINIは、フェデレーションツリーモデルのための効率的かつ解釈可能な推論フレームワークである。
本稿では,効率的な加算同型暗号法により決定経路を保護することを提案する。
実験によると、推論効率は平均で50%以上改善されている。
論文 参考訳(メタデータ) (2021-05-20T06:40:05Z) - Scalable and Provably Accurate Algorithms for Differentially Private
Distributed Decision Tree Learning [34.79337646727395]
本稿では,分散環境での個人差分決定木学習のための,初めて証明可能な精度の高いアルゴリズムを提案する。
本論文では,一般プライバシー保護決定木学習アルゴリズムDP-TopDownを提案し,2つの分散実装を提案する。
論文 参考訳(メタデータ) (2020-12-19T06:09:36Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy Preserving Vertical Federated Learning for Tree-based Models [30.808567035503994]
フェデレーション学習は、複数の組織が互いにプライベートデータを公開することなく、共同でモデルをトレーニングすることを可能にする。
本稿では,垂直決定木学習と予測のためのプライバシー保護のための新しいソリューションであるPivotを提案する。
論文 参考訳(メタデータ) (2020-08-14T02:32:36Z) - Balance is key: Private median splits yield high-utility random trees [4.90655427233754]
本研究では,ディプリメ林(DiPriMe forests)を提案する。
理論的かつ実証的に、結果のアルゴリズムは、差分プライバシーを確保しつつ、高い実用性を示すことを示す。
論文 参考訳(メタデータ) (2020-06-15T21:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。