論文の概要: An Efficient and Robust System for Vertically Federated Random Forest
- arxiv url: http://arxiv.org/abs/2201.10761v1
- Date: Wed, 26 Jan 2022 06:05:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 21:25:49.123488
- Title: An Efficient and Robust System for Vertically Federated Random Forest
- Title(参考訳): 垂直統合ランダム林の効率的ロバスト化システム
- Authors: Houpu Yao, Jiazhou Wang, Peng Dai, Liefeng Bo, Yanqing Chen
- Abstract要約: 我々は、垂直に連合したランダム森林に対して、高速で、正確で、スケーラブルで、頑健なシステムを提案する。
当社のコードは,コミュニティの発展とユーザデータのプライバシ保護を促進するために公開されています。
- 参考スコア(独自算出の注目度): 28.542943002984185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As there is a growing interest in utilizing data across multiple resources to
build better machine learning models, many vertically federated learning
algorithms have been proposed to preserve the data privacy of the participating
organizations. However, the efficiency of existing vertically federated
learning algorithms remains to be a big problem, especially when applied to
large-scale real-world datasets. In this paper, we present a fast, accurate,
scalable and yet robust system for vertically federated random forest. With
extensive optimization, we achieved $5\times$ and $83\times$ speed up over the
SOTA SecureBoost model \cite{cheng2019secureboost} for training and serving
tasks. Moreover, the proposed system can achieve similar accuracy but with
favorable scalability and partition tolerance. Our code has been made public to
facilitate the development of the community and the protection of user data
privacy.
- Abstract(参考訳): 機械学習モデルを構築するために、複数のリソースにまたがるデータを活用することへの関心が高まっている中、多くの垂直連合学習アルゴリズムが、参加組織のデータのプライバシを保護するために提案されている。
しかし、特に大規模な実世界のデータセットに適用した場合、既存の垂直連合学習アルゴリズムの効率は大きな問題である。
本稿では,垂直連帯ランダム林を対象とした高速で高精度,スケーラブルでロバストなシステムを提案する。
広範な最適化によって、トレーニングとサービスタスクのためのSOTA SecureBoostモデル \cite{cheng2019secureboost} よりも 5\times$ と 83\times$ をスピードアップしました。
さらに,本システムも同様の精度を実現することができるが,スケーラビリティと分割耐性は良好である。
当社のコードは,コミュニティの発展とユーザデータのプライバシ保護を促進するために公開されています。
関連論文リスト
- FedEmb: A Vertical and Hybrid Federated Learning Algorithm using Network
And Feature Embedding Aggregation [24.78757412559944]
Federated Learning(FL)は、分散クライアント上の機械学習モデルの分散トレーニングのための新興パラダイムである。
本稿では,垂直およびハイブリッド学習をモデル化するための一般化アルゴリズムであるFedEmbを提案する。
実験結果から,FedEmbは特徴分割と対象空間分散の両問題に対処する有効な方法であることがわかった。
論文 参考訳(メタデータ) (2023-11-30T16:01:51Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Differentially Private Vertical Federated Learning [14.690310701654827]
本稿では,個々の組織データのプライバシーを,差分プライバシー(DP)設定で保護する方法を検討する。
以上の結果から,垂直FL性能とプライバシ保護のバランスをとるためには,トレードオフ点を見つける必要があることが示唆された。
論文 参考訳(メタデータ) (2022-11-13T01:24:38Z) - Trading Off Privacy, Utility and Efficiency in Federated Learning [22.53326117450263]
プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
論文 参考訳(メタデータ) (2022-09-01T05:20:04Z) - VFed-SSD: Towards Practical Vertical Federated Advertising [53.08038962443853]
本稿では,2つの制限を緩和する半教師付き分割蒸留フレームワーク VFed-SSD を提案する。
具体的には,垂直分割された未ラベルデータを利用する自己教師型タスクMatchedPair Detection (MPD) を開発する。
当社のフレームワークは,デプロイコストの最小化と大幅なパフォーマンス向上を図った,リアルタイム表示広告のための効率的なフェデレーション強化ソリューションを提供する。
論文 参考訳(メタデータ) (2022-05-31T17:45:30Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Large-Scale Secure XGB for Vertical Federated Learning [15.864654742542246]
本稿では,縦型学習環境下での大規模セキュアなXGBの構築を目的とする。
我々は、トレーニング中に中間情報が漏洩することを避けるために、セキュアなマルチパーティ計算技術を採用している。
セキュアな置換プロトコルを提案することで、トレーニング効率を改善し、フレームワークを大規模なデータセットにスケールすることが可能になります。
論文 参考訳(メタデータ) (2020-05-18T06:31:10Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。