論文の概要: Effective and Efficient Federated Tree Learning on Hybrid Data
- arxiv url: http://arxiv.org/abs/2310.11865v1
- Date: Wed, 18 Oct 2023 10:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:55:19.209093
- Title: Effective and Efficient Federated Tree Learning on Hybrid Data
- Title(参考訳): ハイブリッドデータを用いた効果的なフェデレーションツリー学習
- Authors: Qinbin Li, Chulin Xie, Xiaojun Xu, Xiaoyuan Liu, Ce Zhang, Bo Li,
Bingsheng He, Dawn Song
- Abstract要約: 本稿では,ハイブリッドデータ上でのフェデレーションツリー学習を可能にする,新しいフェデレーション学習手法であるHybridTreeを提案する。
木に一貫した分割ルールが存在することを観察し、木の下層にパーティの知識を組み込むことができることを示す。
実験により,HybridTreeは計算および通信のオーバーヘッドが低い集中的な設定に匹敵する精度を達成できることを示した。
- 参考スコア(独自算出の注目度): 83.77804863458832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has emerged as a promising distributed learning paradigm
that facilitates collaborative learning among multiple parties without
transferring raw data. However, most existing federated learning studies focus
on either horizontal or vertical data settings, where the data of different
parties are assumed to be from the same feature or sample space. In practice, a
common scenario is the hybrid data setting, where data from different parties
may differ both in the features and samples. To address this, we propose
HybridTree, a novel federated learning approach that enables federated tree
learning on hybrid data. We observe the existence of consistent split rules in
trees. With the help of these split rules, we theoretically show that the
knowledge of parties can be incorporated into the lower layers of a tree. Based
on our theoretical analysis, we propose a layer-level solution that does not
need frequent communication traffic to train a tree. Our experiments
demonstrate that HybridTree can achieve comparable accuracy to the centralized
setting with low computational and communication overhead. HybridTree can
achieve up to 8 times speedup compared with the other baselines.
- Abstract(参考訳): フェデレートラーニングは有望な分散学習パラダイムとして登場し、生データを転送することなく、複数のパーティ間の協調学習を促進する。
しかし、既存のフェデレート学習研究の多くは、異なるパーティのデータが同じ特徴やサンプル空間から来ていると仮定される水平または垂直のデータ設定に焦点を当てている。
実際には、共通のシナリオはハイブリッドデータ設定であり、異なるパーティのデータが特徴とサンプルの両方で異なる可能性がある。
そこで本研究では,ハイブリッドデータ上でのフェデレーションツリー学習を可能にする,新しいフェデレーション学習手法であるHybridTreeを提案する。
木における一貫した分割規則の存在を観察する。
これらの分割ルールの助けを借りて、理論的には、当事者の知識が木の下層に組み込むことができることを示す。
理論解析に基づき,木を訓練するために,頻繁な通信トラフィックを必要としない階層レベルのソリューションを提案する。
実験により,hybridtreeは計算オーバーヘッドと通信オーバーヘッドの少ない集中型設定と同等の精度を実現できることを示した。
hybridtreeは他のベースラインと比べて最大8倍のスピードアップを達成できる。
関連論文リスト
- Soft Hoeffding Tree: A Transparent and Differentiable Model on Data Streams [2.6524539020042663]
Hoeffding Treeのようなストリームマイニングアルゴリズムは、入ってくるデータストリームに基づいて成長する。
我々は,データストリームを無限に変化させる可能性のある,新しい微分可能かつ透明なモデルとして,ソフトなHoeffding Tree (SoHoT)を提案する。
論文 参考訳(メタデータ) (2024-11-07T15:49:53Z) - Adaptive Parameterization of Deep Learning Models for Federated Learning [85.82002651944254]
Federated Learningは、分散形式でディープニューラルネットワークをトレーニングする方法を提供する。
トレーニング中にモデルパラメータや勾配を定期的に交換する必要があるため、通信オーバーヘッドが発生する。
本稿では,フェデレートラーニングのための並列適応器を提案する。
論文 参考訳(メタデータ) (2023-02-06T17:30:33Z) - A Fair and Efficient Hybrid Federated Learning Framework based on
XGBoost for Distributed Power Prediction [11.2804988081885]
本稿では,XGBoostをベースとしたハイブリッド・フェデレーション学習フレームワークを提案する。
精度と解釈性を向上させるため, 強化木の導入に加えて, 水平および垂直の連合学習を併用する。
また, 妥当性, 効率, 精度の両面において, 提案手法の利点が確認された。
論文 参考訳(メタデータ) (2022-01-08T07:25:54Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - A Coupled Design of Exploiting Record Similarity for Practical Vertical
Federated Learning [47.77625754666018]
フェデレートドラーニング(Federated Learning)は、生データを明らかにすることなく、さまざまなパーティ間で協調学習を可能にする学習パラダイムである。
垂直連合学習における既存の研究は「記録リンク」プロセスを無視している。
トレーニングプロセスに1対多のリンケージを統合する新しい複合トレーニングパラダイムであるFedSimを設計する。
論文 参考訳(メタデータ) (2021-06-11T11:09:53Z) - Fed-EINI: An Efficient and Interpretable Inference Framework for
Decision Tree Ensembles in Federated Learning [11.843365055516566]
Fed-EINIは、フェデレーションツリーモデルのための効率的かつ解釈可能な推論フレームワークである。
本稿では,効率的な加算同型暗号法により決定経路を保護することを提案する。
実験によると、推論効率は平均で50%以上改善されている。
論文 参考訳(メタデータ) (2021-05-20T06:40:05Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Hybrid Federated Learning: Algorithms and Implementation [61.0640216394349]
Federated Learning(FL)は、分散データセットとプライベートデータセットを扱う分散機械学習パラダイムである。
ハイブリッドFLのためのモデルマッチングに基づく新しい問題定式化を提案する。
次に,グローバルモデルとローカルモデルを協調して学習し,完全かつ部分的な特徴量を扱う効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-22T23:56:03Z) - Adaptive Histogram-Based Gradient Boosted Trees for Federated Learning [10.893840244877568]
Federated Learning(FL)は、複数のパーティ間でデータを共有せずに、モデルを共同でトレーニングするアプローチです。
コンシューマのドメインでも、個人データを保護するためにも、データ管理規則やデータサイロの実用性を扱うエンタープライズ設定でも使用されています。
本稿では,データ暗号化を必要とせず,パーティ適応ヒストグラム集計手法を用いた勾配ブースティングの新たな実装を提案する。
論文 参考訳(メタデータ) (2020-12-11T23:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。