論文の概要: A Federated Learning Benchmark on Tabular Data: Comparing Tree-Based Models and Neural Networks
- arxiv url: http://arxiv.org/abs/2405.02074v1
- Date: Fri, 3 May 2024 13:08:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 12:55:53.292605
- Title: A Federated Learning Benchmark on Tabular Data: Comparing Tree-Based Models and Neural Networks
- Title(参考訳): 語彙データに基づくフェデレーション学習ベンチマーク:木に基づくモデルとニューラルネットワークの比較
- Authors: William Lindskog, Christian Prehofer,
- Abstract要約: フェデレートラーニング(FL)は、機械学習モデルが分散データセットでトレーニングする方法に対処するため、注目を集めている。
本研究では,データ分割の異なる水平FLのためのフェデレーションTBMとDNNのベンチマークを行った。
フェデレートされたTBMは,クライアント数を大幅に増やしても,フェデレーションされたパラメトリックモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.21485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has lately gained traction as it addresses how machine learning models train on distributed datasets. FL was designed for parametric models, namely Deep Neural Networks (DNNs).Thus, it has shown promise on image and text tasks. However, FL for tabular data has received little attention. Tree-Based Models (TBMs) have been considered to perform better on tabular data and they are starting to see FL integrations. In this study, we benchmark federated TBMs and DNNs for horizontal FL, with varying data partitions, on 10 well-known tabular datasets. Our novel benchmark results indicates that current federated boosted TBMs perform better than federated DNNs in different data partitions. Furthermore, a federated XGBoost outperforms all other models. Lastly, we find that federated TBMs perform better than federated parametric models, even when increasing the number of clients significantly.
- Abstract(参考訳): フェデレートラーニング(FL)は、機械学習モデルが分散データセットでトレーニングする方法に対処するため、近年注目を集めている。
FLは、Deep Neural Networks (DNN) と呼ばれるパラメトリックモデルのために設計された。
このようにして、画像とテキストのタスクに約束を示す。
しかし、表データのFLはほとんど注目されていない。
木に基づくモデル (TBM) は表形式のデータでより良い性能を発揮すると考えられており、FLの統合が始まっている。
本研究では,10個の有名な表付きデータセット上で,異なるデータパーティションを持つ水平FLのためのフェデレーションTBMとDNNのベンチマークを行った。
我々の新しいベンチマークの結果は、現在のフェデレートされたTBMは、異なるデータパーティションにおけるフェデレーションされたDNNよりも優れた性能を示すことを示している。
さらに、フェデレートされたXGBoostは、他のすべてのモデルより優れています。
最後に,フェデレートされたTBMは,クライアント数が大幅に増加した場合でも,フェデレーションされたパラメトリックモデルよりも優れていた。
関連論文リスト
- Federated Learning with Limited Node Labels [3.738399857803053]
サブグラフ・フェデレーション・ラーニング(Subgraph Federated Learning, SFL)は, 研究手法として注目されている。
我々は,クロスサブグラフノード表現の学習を目的とした,FedMpaという新しいSFLフレームワークを提案する。
6つのグラフデータセットに対する実験により,FedMpaはノード分類において極めて有効であることが示された。
論文 参考訳(メタデータ) (2024-06-18T09:30:10Z) - Histogram-Based Federated XGBoost using Minimal Variance Sampling for Federated Tabular Data [3.8043891917471053]
最小分散サンプリング(MVS)を用いたヒストグラムに基づくフェデレーションXGBoostの評価
提案アルゴリズムは,MVSを用いたモデルにより,フェデレートされた設定における精度と回帰誤差の観点から,性能を向上できることを実証する。
論文 参考訳(メタデータ) (2024-05-03T12:58:57Z) - Why Batch Normalization Damage Federated Learning on Non-IID Data? [34.06900591666005]
フェデレートラーニング(FL)では、エッジクライアントのプライバシを保護しながら、ネットワークエッジでディープニューラルネットワーク(DNN)モデルをトレーニングする。
バッチ正規化(BN)は、訓練を加速し、能力一般化を改善するためのシンプルで効果的な手段とみなされてきた。
最近の研究では、BNは非i.d.データの存在下でFLの性能を著しく損なうことが示されている。
非i.d.データの下で、BNの局所的および大域的統計パラメータ間のミスマッチが局所的および大域的モデル間の勾配ずれを引き起こすことを示す最初の収束解析を提示する。
論文 参考訳(メタデータ) (2023-01-08T05:24:12Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z) - Multi-Task Federated Learning for Personalised Deep Neural Networks in
Edge Computing [23.447883712141422]
Federated Learning(FL)は、モバイルデバイス上でDeep Neural Networks(DNN)を協調的にトレーニングする、新たなアプローチである。
従来の研究では、非独立分散(非IID)ユーザデータがFLアルゴリズムの収束速度を損なうことが示されている。
本稿では,非フェデレーションバッチ-Normalization層をフェデレーションDNNに導入するマルチタスクFL(MTFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-17T21:11:01Z) - End-to-End Evaluation of Federated Learning and Split Learning for
Internet of Things [30.47229934329905]
この研究は、実世界のIoT設定でフェデレート学習(FL)とスプリットニューラルネットワーク(SplitNN)を評価し比較する最初の試みである。
FLとSplitNNの両方を異なる種類のデータ分散下で実証的に評価する。
不均衡なデータ分布ではSplitNNの学習性能はFLより優れているが,非IIDデータ分布ではFLより劣っていることを示す。
論文 参考訳(メタデータ) (2020-03-30T12:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。