論文の概要: Guard-GBDT: Efficient Privacy-Preserving Approximated GBDT Training on Vertical Dataset
- arxiv url: http://arxiv.org/abs/2507.20688v1
- Date: Mon, 28 Jul 2025 10:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.079134
- Title: Guard-GBDT: Efficient Privacy-Preserving Approximated GBDT Training on Vertical Dataset
- Title(参考訳): Guard-GBDT: 垂直データセット上でのGBDTトレーニングの効率的なプライバシ保護
- Authors: Anxiao Song, Shujie Cui, Jianli Bai, Ke Cheng, Yulong Shen, Giovanni Russello,
- Abstract要約: Guard-GBDTは、垂直データセット上での効率的でプライバシ保護のGBDTトレーニングに適した、革新的なフレームワークである。
Guard-GBDTのプロトタイプを実装し、その性能と精度を様々な実世界のデータセットで広範囲に評価する。
- 参考スコア(独自算出の注目度): 15.175697228634979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In light of increasing privacy concerns and stringent legal regulations, using secure multiparty computation (MPC) to enable collaborative GBDT model training among multiple data owners has garnered significant attention. Despite this, existing MPC-based GBDT frameworks face efficiency challenges due to high communication costs and the computation burden of non-linear operations, such as division and sigmoid calculations. In this work, we introduce Guard-GBDT, an innovative framework tailored for efficient and privacy-preserving GBDT training on vertical datasets. Guard-GBDT bypasses MPC-unfriendly division and sigmoid functions by using more streamlined approximations and reduces communication overhead by compressing the messages exchanged during gradient aggregation. We implement a prototype of Guard-GBDT and extensively evaluate its performance and accuracy on various real-world datasets. The results show that Guard-GBDT outperforms state-of-the-art HEP-XGB (CIKM'21) and SiGBDT (ASIA CCS'24) by up to $2.71\times$ and $12.21 \times$ on LAN network and up to $2.7\times$ and $8.2\times$ on WAN network. Guard-GBDT also achieves comparable accuracy with SiGBDT and plaintext XGBoost (better than HEP-XGB ), which exhibits a deviation of $\pm1\%$ to $\pm2\%$ only. Our implementation code is provided at https://github.com/XidianNSS/Guard-GBDT.git.
- Abstract(参考訳): プライバシーの懸念と厳格な法的規制の高まりを考慮して、複数のデータ所有者間で協調的なGBDTモデルのトレーニングを可能にするために、セキュアなマルチパーティ計算(MPC)を使用していることが注目されている。
それにもかかわらず、既存のMPCベースのGBDTフレームワークは、通信コストが高く、除算やシグモイド計算などの非線形演算の計算負担が大きいため、効率上の課題に直面している。
本研究では,垂直データセット上でのGBDTトレーニングの効率的かつプライバシ保護に適した,革新的なフレームワークであるGuard-GBDTを紹介する。
Guard-GBDTは、より合理化された近似を用いることで、MPC不フレンドリな分割とシグモイド関数をバイパスし、グラデーションアグリゲーション中に交換されたメッセージを圧縮することで通信オーバーヘッドを低減する。
Guard-GBDTのプロトタイプを実装し、その性能と精度を様々な実世界のデータセットで広範囲に評価する。
その結果、ガード-GBDTは最先端のHEP-XGB(CIKM'21)とSiGBDT(ASIA CCS'24)を最大2.71ドル、LANネットワークで最大12.21ドル、WANネットワークで最大2.7ドル、最高8.2ドルで上回っている。
Guard-GBDT は SiGBDT や平文 XGBoost (HEP-XGB より小さい) と同等の精度を実現しており、$\pm1\%$ から $\pm2\%$ にずれがある。
実装コードはhttps://github.com/XidianNSS/Guard-GBDT.git.comで公開されています。
関連論文リスト
- LGBQPC: Local Granular-Ball Quality Peaks Clustering [51.58924743533048]
密度ピーククラスタリング(DPC)アルゴリズムは、任意の形状のクラスタを検出する能力において、かなりの注目を集めている。
近年のDPCとグラニュラーボールコンピューティングの統合により、GBベースのDPCアルゴリズムが実現され、計算効率が向上した。
本稿では,ローカルGB品質ピーククラスタリング(LGBQPC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-16T15:26:02Z) - Efficiently Achieving Secure Model Training and Secure Aggregation to Ensure Bidirectional Privacy-Preservation in Federated Learning [36.94596192980534]
局所勾配とグローバルモデルの両方がプライバシーを侵害する可能性があるため、双方向のプライバシー保護フェデレーション学習が不可欠である。
我々は、安全なモデルトレーニングと安全なアグリゲーションを実現するために、フェデレートラーニングのための効率的で高精度な双方向プライバシー保護スキームを設計する。
提案手法は, 計算コスト, モデル精度, 防衛能力において, 最先端の双方向プライバシー保護ベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-12-16T12:58:21Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Differentially Private Bias-Term Fine-tuning of Foundation Models [36.55810474925956]
本研究では,大規模事前学習モデルにおける差分プライベート(DP)微調整の問題について検討する。
本稿では,DPアルゴリズムの最先端精度と標準BiTFiTの効率とを一致させるDP-BiTFiTを提案する。
幅広いタスクにおいて、DP-BiTFiTは230倍高速で、完全な微調整よりも28倍少ないメモリを使用する。
論文 参考訳(メタデータ) (2022-09-30T18:30:48Z) - Quantized Training of Gradient Boosting Decision Trees [84.97123593657584]
我々は,GBDTのトレーニングアルゴリズムにおいて,高精度勾配を非常に単純かつ効果的な方法で定量化することを提案する。
低精度勾配では、GBDTトレーニングにおけるほとんどの算術演算は、8, 16, 32ビットの整数演算に置き換えられる。
大規模なデータセット上でのSOTA GBDTシステムと比較して、単純な量子化戦略の2$times$スピードアップを観測する。
論文 参考訳(メタデータ) (2022-07-20T06:27:06Z) - Rethinking and Scaling Up Graph Contrastive Learning: An Extremely
Efficient Approach with Group Discrimination [87.07410882094966]
グラフコントラスト学習(GCL)は、グラフ表現学習(GRL)におけるラベル情報への依存度を緩和する
自己教師型GRLのための新しい学習パラダイム、すなわちグループ識別(GD)を導入する。
類似性計算の代わりに、GGDは単純なバイナリクロスエントロピー損失を持つ要約ノードインスタンスの2つのグループを直接識別する。
加えて、GGDは大規模データセット上でのGCL法と比較して、競争性能を得るために、はるかに少ないトレーニングエポックを必要とする。
論文 参考訳(メタデータ) (2022-06-03T12:32:47Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - DTGAN: Differential Private Training for Tabular GANs [6.174448419090292]
本稿では,DTGAN_GとDTGAN_Dの2つの変種からなる条件付きワッサースタインGANであるDTGANを提案する。
我々は,DPの理論的プライバシー保証を,メンバーシップや属性推論攻撃に対して実証的に評価する。
その結果,DP-SGD フレームワークは PATE よりも優れており,DP 判別器の方が訓練収束に最適であることが示唆された。
論文 参考訳(メタデータ) (2021-07-06T10:28:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。