論文の概要: SecureBoost+ : A High Performance Gradient Boosting Tree Framework for
Large Scale Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2110.10927v1
- Date: Thu, 21 Oct 2021 06:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 14:34:28.726114
- Title: SecureBoost+ : A High Performance Gradient Boosting Tree Framework for
Large Scale Vertical Federated Learning
- Title(参考訳): SecureBoost+ : 大規模垂直フェデレーション学習のための高性能なグラディエントブースティングツリーフレームワーク
- Authors: Weijing Chen, Guoqiang Ma, Tao Fan, Yan Kang, Qian Xu, Qiang Yang
- Abstract要約: グラディエントブースティング決定木(GBDT)は、業界で広く使われているアンサンブルアルゴリズムである。
SecureBoostは、クロスサイロのプライバシ保存モデリングで使用される最も一般的なアルゴリズムの1つである。
SecureBoost+は、いくつかの暗号文計算最適化とエンジニアリング最適化を統合している。
- 参考スコア(独自算出の注目度): 10.747008081033655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient boosting decision tree (GBDT) is a widely used ensemble algorithm in
the industry. Its vertical federated learning version, SecureBoost, is one of
the most popular algorithms used in cross-silo privacy-preserving modeling. As
the area of privacy computation thrives in recent years, demands for
large-scale and high-performance federated learning have grown dramatically in
real-world applications. In this paper, to fulfill these requirements, we
propose SecureBoost+ that is both novel and improved from the prior work
SecureBoost. SecureBoost+ integrates several ciphertext calculation
optimizations and engineering optimizations. The experimental results
demonstrate that Secureboost+ has significant performance improvements on large
and high dimensional data sets compared to SecureBoost. It makes effective and
efficient large-scale vertical federated learning possible.
- Abstract(参考訳): グラディエントブースティング決定木(GBDT)は業界で広く使われているアンサンブルアルゴリズムである。
その縦型フェデレーション学習バージョンであるSecureBoostは、クロスサイロプライバシ保存モデリングで使用される最も一般的なアルゴリズムの1つである。
近年のプライバシ計算の分野が発展するにつれて、大規模かつ高性能なフェデレーション学習の需要は現実世界のアプリケーションで劇的に増大している。
本稿では,これらの要件を満たすために,SecureBoostを新規かつ改良したSecureBoost+を提案する。
SecureBoost+は、いくつかの暗号文計算最適化とエンジニアリング最適化を統合している。
実験の結果,SecureBoostと比較すると,Secureboost+は大規模かつ高次元のデータセットに対して顕著な性能向上を示した。
これにより、効率的で効率的な大規模垂直連合学習が可能になる。
関連論文リスト
- SecureBoost Hyperparameter Tuning via Multi-Objective Federated Learning [23.196686101682737]
SecureBoostは、準同型暗号化を活用して、垂直的なフェデレーション学習環境でデータのプライバシを保護するツリーブースティングアルゴリズムである。
SecureBoostは、高い計算複雑性とラベルリークのリスクに悩まされている。
最適解を求めるために,制約付き多目的SecureBoost (CMOSB) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-20T04:45:59Z) - PromptBoosting: Black-Box Text Classification with Ten Forward Passes [61.38341243907045]
PromptBoostingは、LMのパラメータ、勾配、隠された表現にアクセスすることなく、ニューラルネットワークモデル(LM)からテキスト分類器を構築するためのクエリ効率のよい手順である。
実験によると、PromptBoostingは複数のブラックボックスのいくつかのショット分類タスクで最先端のパフォーマンスを達成し、既存のブラックボックスメソッドよりも10倍速くトレーニングしながら、少数ショットと標準学習のパラダイムの両方で完全な微調整をマッチまたは上回っている。
論文 参考訳(メタデータ) (2022-12-19T06:04:54Z) - Boosting as Frank-Wolfe [0.6875312133832078]
フランク=ウルフアルゴリズムと任意の二次アルゴリズムを組み合わせた汎用的なブースティング手法を提案する。
ERLPBoost や C-ERLPBoost と同じ収束保証を維持していることを示す。
論文 参考訳(メタデータ) (2022-09-22T07:36:55Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Quantum Boosting using Domain-Partitioning Hypotheses [0.9264464791978363]
ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
論文 参考訳(メタデータ) (2021-10-25T10:46:13Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - Data Boost: Text Data Augmentation Through Reinforcement Learning Guided
Conditional Generation [6.902878949331784]
我々は、強化学習による条件生成を通じてデータを増強するデータブーストを提案する。
我々は,5つの異なる分類器アーキテクチャの下で,3つの多様なテキスト分類タスクに対してデータブーストを評価する。
論文 参考訳(メタデータ) (2020-12-05T05:21:57Z) - Soft Gradient Boosting Machine [72.54062017726154]
複数の異なるベースラーナを連携させて,ソフトなグラディエントブースティングマシン(sGBM)を提案する。
実験の結果,sGBMは,オンラインとオフラインの両方で同一の学習者に対して,より高精度な時間効率を享受できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:43:23Z) - BoostTree and BoostForest for Ensemble Learning [27.911350375268576]
BoostForestは、BoostTreeをベースラーナーとして使用したアンサンブル学習アプローチで、分類と回帰の両方に使用することができる。
一般的に、35の分類と回帰データセットにおいて、4つの古典的なアンサンブル学習アプローチ(ランサムフォレスト、エクストラトリー、XGBoost、LightGBM)より優れていた。
論文 参考訳(メタデータ) (2020-03-21T19:52:13Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。