論文の概要: GTree: GPU-Friendly Privacy-preserving Decision Tree Training and Inference
- arxiv url: http://arxiv.org/abs/2305.00645v2
- Date: Wed, 14 Aug 2024 15:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 18:56:36.651792
- Title: GTree: GPU-Friendly Privacy-preserving Decision Tree Training and Inference
- Title(参考訳): GTree: GPUフレンドリなプライバシ保護決定木トレーニングと推論
- Authors: Qifan Wang, Shujie Cui, Lei Zhou, Ye Dong, Jianli Bai, Yun Sing Koh, Giovanni Russello,
- Abstract要約: 決定木(Decision Tree, DT)は、その汎用性、速度、解釈性から広く使われている機械学習モデルである。
プライバシに敏感なアプリケーションでは、DTトレーニングのアウトソーシングとクラウドプラットフォームへの推論が、データのプライバシに関する懸念を提起する。
GTreeは、GPUを用いてMPCで保護されたセキュアDTトレーニングと推論を高速化する最初のスキームである。
- 参考スコア(独自算出の注目度): 22.566360513393647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision tree (DT) is a widely used machine learning model due to its versatility, speed, and interpretability. However, for privacy-sensitive applications, outsourcing DT training and inference to cloud platforms raise concerns about data privacy. Researchers have developed privacy-preserving approaches for DT training and inference using cryptographic primitives, such as Secure Multi-Party Computation (MPC). While these approaches have shown progress, they still suffer from heavy computation and communication overheads. Few recent works employ Graphical Processing Units (GPU) to improve the performance of MPC-protected deep learning. This raises a natural question: \textit{can MPC-protected DT training and inference be accelerated by GPU?} We present GTree, the first scheme that uses GPU to accelerate MPC-protected secure DT training and inference. GTree is built across 3 parties who securely and jointly perform each step of DT training and inference with GPU. Each MPC protocol in GTree is designed in a GPU-friendly version. The performance evaluation shows that GTree achieves ${\thicksim}11{\times}$ and ${\thicksim}21{\times}$ improvements in training SPECT and Adult datasets, compared to the prior most efficient CPU-based work. For inference, GTree shows its superior efficiency when the DT has less than 10 levels, which is $126\times$ faster than the prior most efficient work when inferring $10^4$ instances with a tree of 7 levels. GTree also achieves a stronger security guarantee than prior solutions, which only leaks the tree depth and size of data samples while prior solutions also leak the tree structure. With \textit{oblivious array access}, the access pattern on GPU is also protected.
- Abstract(参考訳): 決定木(Decision Tree, DT)は、その汎用性、速度、解釈性から広く使われている機械学習モデルである。
しかし、プライバシに敏感なアプリケーションでは、DTトレーニングとクラウドプラットフォームへの推論をアウトソーシングすることで、データのプライバシに関する懸念が高まる。
研究者は、セキュアマルチパーティ計算(MPC)のような暗号化プリミティブを使用して、DTトレーニングと推論のためのプライバシ保護アプローチを開発した。
これらのアプローチは進歩しているものの、それでも重い計算と通信のオーバーヘッドに悩まされている。
MPCで保護されたディープラーニングの性能を改善するために、GPU(Graphical Processing Units)を使用した最近の研究はほとんどない。
textit{can MPCで保護されたDTトレーニングと推論はGPUによって加速されるのか?
We present GTree, the first scheme that using GPU to accelerate MPC-proofed secure DT training and inference。
GTreeは、DTトレーニングの各ステップとGPUによる推論を安全かつ共同で実行する3つのパーティで構成されている。
GTreeの各MPCプロトコルはGPUフレンドリーなバージョンで設計されている。
パフォーマンス評価は、GTreeが以前の最も効率的なCPUベースの作業と比較して、SPECTとアダルトデータセットのトレーニングにおいて、${\thicksim}11{\times}$と${\thicksim}21{\times}$の改善を達成したことを示している。
推論では、GTreeはDTが10レベル未満の場合に優れた効率を示し、これは7レベルのツリーを持つ10^4$インスタンスを推測する場合、以前の最も効率的な作業よりも126\times$高速である。
GTreeはまた、以前のソリューションよりも強力なセキュリティ保証を実現している。これは、データサンプルの深さとサイズだけをリークする一方で、以前のソリューションもツリー構造をリークする。
textit{oblivious array access} では、GPU上のアクセスパターンも保護される。
関連論文リスト
- Fast unsupervised ground metric learning with tree-Wasserstein distance [14.235762519615175]
教師なしの地上距離学習アプローチが導入されました
木にサンプルや特徴を埋め込むことでWSV法を強化し,木-ワッサーシュタイン距離(TWD)を計算することを提案する。
我々は、このアルゴリズムが最もよく知られた方法よりも完全なWSVアプローチの近似に収束し、$mathcalO(n3)$複雑さを持つことを理論的かつ経験的に実証する。
論文 参考訳(メタデータ) (2024-11-11T23:21:01Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - GradTree: Learning Axis-Aligned Decision Trees with Gradient Descent [10.27211960475599]
決定木(DT)は多くの機械学習タスクで一般的に使われている。
本稿では,greedyアルゴリズムを用いた新しいDT学習手法を提案する。
直進演算子と直進演算子を高密度DT表現とし,すべての木パラメータを協調的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2023-05-05T13:24:35Z) - Privacy-Preserving Tree-Based Inference with TFHE [0.0]
我々は、暗号化データ上で任意の計算を実行できる強力なツールであるFHE(Fully Homomorphic Encryption)に焦点を当てる。
本稿では、FHEをツリーベースモデルに適用し、暗号化されたデータに対して最先端のソリューションを得る方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T10:33:21Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - SoftTreeMax: Policy Gradient with Tree Search [72.9513807133171]
我々は、ツリー検索をポリシー勾配に統合する最初のアプローチであるSoftTreeMaxを紹介します。
Atariでは、SoftTreeMaxが分散PPOと比較して、実行時のパフォーマンスを最大5倍向上させる。
論文 参考訳(メタデータ) (2022-09-28T09:55:47Z) - Rethinking and Scaling Up Graph Contrastive Learning: An Extremely
Efficient Approach with Group Discrimination [87.07410882094966]
グラフコントラスト学習(GCL)は、グラフ表現学習(GRL)におけるラベル情報への依存度を緩和する
自己教師型GRLのための新しい学習パラダイム、すなわちグループ識別(GD)を導入する。
類似性計算の代わりに、GGDは単純なバイナリクロスエントロピー損失を持つ要約ノードインスタンスの2つのグループを直接識別する。
加えて、GGDは大規模データセット上でのGCL法と比較して、競争性能を得るために、はるかに少ないトレーニングエポックを必要とする。
論文 参考訳(メタデータ) (2022-06-03T12:32:47Z) - Social Interpretable Tree for Pedestrian Trajectory Prediction [75.81745697967608]
本稿では,このマルチモーダル予測課題に対処するため,SIT(Social Interpretable Tree)と呼ばれる木に基づく手法を提案する。
木の根から葉までの経路は、個々の将来の軌跡を表す。
ETH-UCYとStanford Droneのデータセットによる実験結果からは,手作り木にもかかわらず,我々の手法が最先端の手法の性能に適合または超えることを示した。
論文 参考訳(メタデータ) (2022-05-26T12:18:44Z) - Shrub Ensembles for Online Classification [7.057937612386993]
決定木(DT)アンサンブルは、データの変化に適応しながら優れたパフォーマンスを提供するが、リソース効率は良くない。
本稿では,資源制約システムのための新しいメモリ効率の高いオンライン分類アンサンブルである低木アンサンブルを提案する。
我々のアルゴリズムは、小さな窓に小から中程度の決定木を訓練し、勾配降下を利用してこれらの低木のアンサンブル重みを学習する。
論文 参考訳(メタデータ) (2021-12-07T14:22:43Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Efficient Second-Order TreeCRF for Neural Dependency Parsing [23.426500262860777]
ディープラーニング(DL)時代には、構文解析モデルは極めて単純化され、性能にほとんど影響を与えない。
本稿では,2階目のTreeCRF拡張について述べる。
本研究では,内部とビタビアルゴリズムをバッチ化して直接大行列演算を行う手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T03:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。