論文の概要: Histogram-Based Federated XGBoost using Minimal Variance Sampling for Federated Tabular Data
- arxiv url: http://arxiv.org/abs/2405.02067v1
- Date: Fri, 3 May 2024 12:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 12:55:53.306099
- Title: Histogram-Based Federated XGBoost using Minimal Variance Sampling for Federated Tabular Data
- Title(参考訳): フェデレートタブラルデータに対する最小分散サンプリングを用いたヒストグラムに基づくフェデレートXGBoost
- Authors: William Lindskog, Christian Prehofer, Sarandeep Singh,
- Abstract要約: 最小分散サンプリング(MVS)を用いたヒストグラムに基づくフェデレーションXGBoostの評価
提案アルゴリズムは,MVSを用いたモデルにより,フェデレートされた設定における精度と回帰誤差の観点から,性能を向上できることを実証する。
- 参考スコア(独自算出の注目度): 3.8043891917471053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has gained considerable traction, yet, for tabular data, FL has received less attention. Most FL research has focused on Neural Networks while Tree-Based Models (TBMs) such as XGBoost have historically performed better on tabular data. It has been shown that subsampling of training data when building trees can improve performance but it is an open problem whether such subsampling can improve performance in FL. In this paper, we evaluate a histogram-based federated XGBoost that uses Minimal Variance Sampling (MVS). We demonstrate the underlying algorithm and show that our model using MVS can improve performance in terms of accuracy and regression error in a federated setting. In our evaluation, our model using MVS performs better than uniform (random) sampling and no sampling at all. It achieves both outstanding local and global performance on a new set of federated tabular datasets. Federated XGBoost using MVS also outperforms centralized XGBoost in half of the studied cases.
- Abstract(参考訳): Federated Learning (FL) はかなりの注目を集めているが、表形式のデータについては、FLはより少ない注目を集めている。
ほとんどのFL研究はニューラルネットワークに重点を置いているが、XGBoostのようなツリーベースモデル(TBM)は、歴史的に表データでよりよく機能している。
木構築時のトレーニングデータのサブサンプリングにより性能が向上することが示されているが,このようなサブサンプリングがFLの性能を向上させるかどうかは未解決の問題である。
本稿では,最小分散サンプリング(MVS)を用いたヒストグラムに基づくフェデレーションXGBoostの評価を行う。
提案アルゴリズムは,MVSを用いたモデルにより,フェデレートされた設定における精度と回帰誤差の観点から,性能を向上できることを示す。
本評価では,MVSを用いたモデルでは,一様(ランダム)サンプリングよりも優れた性能を示し,サンプリングを全く行わない。
新たなフェデレートされた表データセットで、ローカルとグローバルの両方のパフォーマンスを達成する。
MVSを用いたFederated XGBoostは、研究対象の半数で集中型XGBoostを上回っている。
関連論文リスト
- A Federated Learning Benchmark on Tabular Data: Comparing Tree-Based Models and Neural Networks [0.21485350418225244]
フェデレートラーニング(FL)は、機械学習モデルが分散データセットでトレーニングする方法に対処するため、注目を集めている。
本研究では,データ分割の異なる水平FLのためのフェデレーションTBMとDNNのベンチマークを行った。
フェデレートされたTBMは,クライアント数を大幅に増やしても,フェデレーションされたパラメトリックモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-05-03T13:08:56Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Abstractive Summarization as Augmentation for Document-Level Event
Detection [0.0]
文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を拡張手法として用いて橋渡しする。
テキスト生成には、ビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索の4つの復号法を用いる。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
論文 参考訳(メタデータ) (2023-05-29T11:28:26Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - SSFG: Stochastically Scaling Features and Gradients for Regularizing
Graph Convolution Networks [7.075802972628797]
繰り返しグラフ畳み込みを適用すると、余計な問題を引き起こす可能性がある。
この問題に対処するための正規化手法を提案する。
本手法は,ベースライングラフネットワーク全体の性能を効果的に改善する。
論文 参考訳(メタデータ) (2021-02-20T12:59:48Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Federated Learning with Nesterov Accelerated Gradient Momentum Method [47.49442006239034]
Federated Learning(FL)は、複数のワーカーが分散データセットに基づいてグローバルモデルをトレーニングできる、迅速な開発技術である。
Nesterov Accelerated Gradient (NAG) が集中トレーニング環境においてより有利であることはよく知られている。
本研究では,NAGに基づくFLのバージョンに着目し,詳細な収束解析を行う。
論文 参考訳(メタデータ) (2020-09-18T09:38:11Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z) - Multi-Task Federated Learning for Personalised Deep Neural Networks in
Edge Computing [23.447883712141422]
Federated Learning(FL)は、モバイルデバイス上でDeep Neural Networks(DNN)を協調的にトレーニングする、新たなアプローチである。
従来の研究では、非独立分散(非IID)ユーザデータがFLアルゴリズムの収束速度を損なうことが示されている。
本稿では,非フェデレーションバッチ-Normalization層をフェデレーションDNNに導入するマルチタスクFL(MTFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-17T21:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。