論文の概要: SecureBoost+ : A High Performance Gradient Boosting Tree Framework for Large Scale Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2110.10927v4
- Date: Fri, 31 May 2024 07:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 21:09:19.140975
- Title: SecureBoost+ : A High Performance Gradient Boosting Tree Framework for Large Scale Vertical Federated Learning
- Title(参考訳): SecureBoost+ : 大規模垂直フェデレーション学習のための高性能なグラディエントブースティングツリーフレームワーク
- Authors: Weijing Chen, Guoqiang Ma, Tao Fan, Yan Kang, Qian Xu, Qiang Yang,
- Abstract要約: グラディエントブースティング決定木(GBDT)は、業界で広く使われているアンサンブルアルゴリズムである。
SecureBoostは、クロスサイロのプライバシ保存モデリングで使用される最も一般的なアルゴリズムの1つである。
SecureBoost+は、いくつかの暗号文計算最適化とエンジニアリング最適化を統合している。
- 参考スコア(独自算出の注目度): 13.966865178730039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient boosting decision tree (GBDT) is a widely used ensemble algorithm in the industry. Its vertical federated learning version, SecureBoost, is one of the most popular algorithms used in cross-silo privacy-preserving modeling. As the area of privacy computation thrives in recent years, demands for large-scale and high-performance federated learning have grown dramatically in real-world applications. In this paper, to fulfill these requirements, we propose SecureBoost+ that is both novel and improved from the prior work SecureBoost. SecureBoost+ integrates several ciphertext calculation optimizations and engineering optimizations. The experimental results demonstrate that Secureboost+ has significant performance improvements on large and high dimensional data sets compared to SecureBoost. It makes effective and efficient large-scale vertical federated learning possible.
- Abstract(参考訳): グラディエントブースティング決定木(GBDT)は、業界で広く使われているアンサンブルアルゴリズムである。
その縦型フェデレーション学習バージョンであるSecureBoostは、クロスサイロのプライバシ保存モデリングで使用される最も一般的なアルゴリズムの1つである。
近年のプライバシ計算の分野が発展するにつれて、大規模かつ高性能なフェデレーション学習の需要は、現実世界のアプリケーションで劇的に増大している。
本稿では,これらの要件を満たすために,SecureBoostを新規かつ改良したSecureBoost+を提案する。
SecureBoost+は、いくつかの暗号文計算最適化とエンジニアリング最適化を統合している。
実験の結果,SecureBoostと比較すると,Secureboost+は大規模かつ高次元のデータセットに対して顕著な性能向上を示した。
これは、効果的で効率的な大規模な垂直連邦学習を可能にする。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数の高速化により効率よく最適化できることを示す。
古典的な$0の注文設定ではまだ不可能な成果を達成できることを示す。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - Hyperparameter Optimization for SecureBoost via Constrained Multi-Objective Federated Learning [26.00375717103131]
SecureBoostとそのバリエーションのいくつかは,ラベルの漏洩に対して依然として脆弱であることに気付きました。
この脆弱性は、ユーティリティ、プライバシ、効率の中間的なトレードオフにつながる可能性がある。
最適解を近似する Constrained Multi-Objective SecureBoost (CMOSB) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-06T03:46:42Z) - SecureBoost Hyperparameter Tuning via Multi-Objective Federated Learning [23.196686101682737]
SecureBoostは、準同型暗号化を活用して、垂直的なフェデレーション学習環境でデータのプライバシを保護するツリーブースティングアルゴリズムである。
SecureBoostは、高い計算複雑性とラベルリークのリスクに悩まされている。
最適解を求めるために,制約付き多目的SecureBoost (CMOSB) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-20T04:45:59Z) - PromptBoosting: Black-Box Text Classification with Ten Forward Passes [61.38341243907045]
PromptBoostingは、LMのパラメータ、勾配、隠された表現にアクセスすることなく、ニューラルネットワークモデル(LM)からテキスト分類器を構築するためのクエリ効率のよい手順である。
実験によると、PromptBoostingは複数のブラックボックスのいくつかのショット分類タスクで最先端のパフォーマンスを達成し、既存のブラックボックスメソッドよりも10倍速くトレーニングしながら、少数ショットと標準学習のパラダイムの両方で完全な微調整をマッチまたは上回っている。
論文 参考訳(メタデータ) (2022-12-19T06:04:54Z) - SketchBoost: Fast Gradient Boosted Decision Tree for Multioutput
Problems [3.04585143845864]
Gradient Boosted Decision Tree (GBDT)は、広く使われている機械学習アルゴリズムである。
本稿では,多出力シナリオにおけるGBDTのトレーニングプロセスの高速化を目的とした新しい手法を提案する。
私たちの数値研究は、SketchBoostがGBDTのトレーニングプロセスを最大40倍高速化することを示している。
論文 参考訳(メタデータ) (2022-11-23T11:06:10Z) - OpBoost: A Vertical Federated Tree Boosting Framework Based on
Order-Preserving Desensitization [26.386265547513887]
Vertical Federated Learning(FL)は、同じデータサンプルの非重複属性を持つユーザが、生データを共有することなく、共同でモデルをトレーニングできる新しいパラダイムである。
最近の研究は、トレーニングプロセスやトレーニングされたモデルからプライバシーが漏洩するのを防ぐのに、まだ不十分であることを示しています。
本稿では,垂直FL下でのプライバシー保護木増進アルゴリズムの研究に焦点をあてる。
論文 参考訳(メタデータ) (2022-10-04T02:21:18Z) - Boosting as Frank-Wolfe [0.6875312133832078]
フランク=ウルフアルゴリズムと任意の二次アルゴリズムを組み合わせた汎用的なブースティング手法を提案する。
ERLPBoost や C-ERLPBoost と同じ収束保証を維持していることを示す。
論文 参考訳(メタデータ) (2022-09-22T07:36:55Z) - PRBoost: Prompt-Based Rule Discovery and Boosting for Interactive
Weakly-Supervised Learning [57.66155242473784]
弱教師付き学習(WSL)は,多くのNLPタスクにおいてラベル不足に対処する上で有望な結果を示した。
提案モデルであるPRBoostは、反復的なプロンプトベースのルール発見とモデル強化によってこの目標を達成する。
4つのタスクの実験では、PRBoostは最先端のWSLベースラインを7.1%まで上回っている。
論文 参考訳(メタデータ) (2022-03-18T04:23:20Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - Soft Gradient Boosting Machine [72.54062017726154]
複数の異なるベースラーナを連携させて,ソフトなグラディエントブースティングマシン(sGBM)を提案する。
実験の結果,sGBMは,オンラインとオフラインの両方で同一の学習者に対して,より高精度な時間効率を享受できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:43:23Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。