論文の概要: SilentWood: Private Inference Over Gradient-Boosting Decision Forests
- arxiv url: http://arxiv.org/abs/2411.15494v1
- Date: Sat, 23 Nov 2024 08:27:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:18:02.902722
- Title: SilentWood: Private Inference Over Gradient-Boosting Decision Forests
- Title(参考訳): SilentWood: 優占林に関するプライベート推論
- Authors: Ronny Ko, Rasoul Akhavan Mahdavi, Byoungwoo Yoon, Makoto Onizuka, Florian Kerschbaum,
- Abstract要約: 我々は,高度にスケーラブルな勾配ブースト決定林のための,最初のプライベート推論プロトコルを提案する。
我々のプロトコルの推論時間は、プロトコルを実行する並列のベースラインよりも高速である。
- 参考スコア(独自算出の注目度): 30.600051474544014
- License:
- Abstract: Gradient-boosting decision forests, as used by algorithms such as XGBoost or AdaBoost, offer higher accuracy and lower training times for large datasets than decision trees. Protocols for private inference over decision trees can be used to preserve the privacy of the input data as well as the privacy of the trees. However, naively extending private inference over decision trees to private inference over decision forests by replicating the protocols leads to impractical running times. In this paper, we explore extending the private decision inference protocol using homomorphic encryption by Mahdavi et al. (CCS 2023) to decision forests. We present several optimizations that identify and then remove (approximate) duplication between the trees in a forest and hence achieve significant improvements in communication and computation cost over the naive approach. To the best of our knowledge, we present the first private inference protocol for highly scalable gradient-boosting decision forests. Our optimizations extend beyond Mahdavi et al.'s protocol to various private inference protocols for gradient-boosting decision trees. Our protocol's inference time is faster than the baseline of parallel running the protocol by Mahdavi et al.~by up to 28.1x, and faster than Zama's Concrete ML XGBoost by up to 122.25x.
- Abstract(参考訳): XGBoostやAdaBoostといったアルゴリズムが使用しているグラディエントブースト決定林は、意思決定木よりも大規模なデータセットの精度とトレーニング時間の短縮を提供する。
決定木に対するプライベート推論のためのプロトコルは、入力データのプライバシとツリーのプライバシを保存するために使用できる。
しかし、決定木に対する私的推論を、プロトコルを複製することで、決定林に対する私的推論に自然に拡張することは、現実的な実行時間をもたらす。
本稿では,Mahdavi et al (CCS 2023) による準同型暗号を用いた私的意思決定推論プロトコルの拡張について検討する。
本研究では,森林内の木々間の重複を同定し,除去する最適化手法を提案する。
我々の知る限り、我々は高度にスケーラブルな勾配ブースト決定林のための最初のプライベート推論プロトコルを提示する。
我々の最適化は、Mahdaviらによるプロトコルを超えて、勾配決定木のための様々なプライベート推論プロトコルにも及んでいる。
我々のプロトコルの推論時間は、Mahdaviらによるプロトコルの並列実行のベースラインよりも28.1倍高速で、Zama の concrete ML XGBoost よりも122.25倍高速である。
関連論文リスト
- Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Level Up: Private Non-Interactive Decision Tree Evaluation using Levelled Homomorphic Encryption [26.586515453049397]
プライベート決定木評価(PDTE)は、クライアントのプライベート属性に基づいた予測を提供するためのプライベート決定木を保持するサーバである。
本稿では,新しい2つのPDTEプロトコルであるXXCMP-PDTEとRCC-PDTEを提案する。
具体的には、RCCは32ビットの数を10ミリ秒未満で比較できる。
論文 参考訳(メタデータ) (2023-09-12T18:10:02Z) - Permutation Decision Trees [3.089408984959925]
Effort-To-Compress (ETC) は、新しい不純物尺度として初めて複雑性尺度である。
置換決定木と様々な実世界のデータセットにおける古典的決定木の性能比較を行う。
論文 参考訳(メタデータ) (2023-06-05T06:31:14Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - Private Boosted Decision Trees via Smooth Re-Weighting [2.099922236065961]
微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
論文 参考訳(メタデータ) (2022-01-29T20:08:52Z) - Scalable and Provably Accurate Algorithms for Differentially Private
Distributed Decision Tree Learning [34.79337646727395]
本稿では,分散環境での個人差分決定木学習のための,初めて証明可能な精度の高いアルゴリズムを提案する。
本論文では,一般プライバシー保護決定木学習アルゴリズムDP-TopDownを提案し,2つの分散実装を提案する。
論文 参考訳(メタデータ) (2020-12-19T06:09:36Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Please Mind the Root: Decoding Arborescences for Dependency Parsing [67.71280539312536]
我々はUniversal Dependency Treebankから多くの言語における最先端の出力を分析する。
最悪の制約違反率は24%です。
論文 参考訳(メタデータ) (2020-10-06T08:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。