論文の概要: LESS-VFL: Communication-Efficient Feature Selection for Vertical
Federated Learning
- arxiv url: http://arxiv.org/abs/2305.02219v1
- Date: Wed, 3 May 2023 15:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 14:19:14.243896
- Title: LESS-VFL: Communication-Efficient Feature Selection for Vertical
Federated Learning
- Title(参考訳): LESS-VFL:垂直的フェデレーション学習のためのコミュニケーション効率の良い特徴選択
- Authors: Timothy Castiglia, Yi Zhou, Shiqiang Wang, Swanand Kadhe, Nathalie
Baracaldo, Stacy Patterson
- Abstract要約: 我々は、サーバのシステムと、サンプルID空間を共有するが、異なる特徴セットを持つローカルデータセットを持つ複数のパーティについて検討する。
訓練の一環として、当事者はシステムの重要でない特徴を取り除き、一般化、効率、説明可能性を改善することを望んでいる。
我々は,LESS-VFLが精度が高く,他の特徴選択手法の通信コストのごく一部で突発的特徴を除去できるという実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 22.3737954458118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose LESS-VFL, a communication-efficient feature selection method for
distributed systems with vertically partitioned data. We consider a system of a
server and several parties with local datasets that share a sample ID space but
have different feature sets. The parties wish to collaboratively train a model
for a prediction task. As part of the training, the parties wish to remove
unimportant features in the system to improve generalization, efficiency, and
explainability. In LESS-VFL, after a short pre-training period, the server
optimizes its part of the global model to determine the relevant outputs from
party models. This information is shared with the parties to then allow local
feature selection without communication. We analytically prove that LESS-VFL
removes spurious features from model training. We provide extensive empirical
evidence that LESS-VFL can achieve high accuracy and remove spurious features
at a fraction of the communication cost of other feature selection approaches.
- Abstract(参考訳): 本稿では,垂直分割データを持つ分散システムにおける通信効率の高い特徴選択手法であるLESS-VFLを提案する。
我々は、サーバのシステムと、サンプルID空間を共有するが異なる特徴セットを持つローカルデータセットを持つ複数のパーティについて検討する。
当事者は、予測タスクのためのモデルを共同でトレーニングしたいと考えています。
訓練の一環として、当事者はシステムの重要でない特徴を取り除き、一般化、効率、説明可能性を改善することを望んでいる。
LESS-VFLでは、短い事前トレーニング期間の後、サーバはグローバルモデルの一部を最適化し、パーティモデルから関連する出力を決定する。
この情報は当事者と共有され、通信なしで局所的な特徴の選択を可能にする。
我々はLESS-VFLがモデルトレーニングから突発的特徴を取り除くことを解析的に証明した。
我々は,LESS-VFLが高い精度を実現し,他の特徴選択手法の通信コストのごく一部で突発的特徴を除去できることを示す。
関連論文リスト
- SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data [9.84489449520821]
本稿では,垂直的フェデレート学習(VFL)に対するブロックワイズ学習手法を提案する。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学習する。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - VertiBench: Advancing Feature Distribution Diversity in Vertical
Federated Learning Benchmarks [31.08004805380727]
本稿では,VFLの性能に影響を及ぼす2つの要因について紹介する。
また、画像イメージのVFLシナリオの欠点に対応するために、実際のVFLデータセットも導入する。
論文 参考訳(メタデータ) (2023-07-05T05:55:08Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Towards Communication-efficient Vertical Federated Learning Training via
Cache-enabled Local Updates [25.85564668511386]
CELU-VFLは,新しい,効率的な垂直学習フレームワークである。
CELU-VFLは、ローカル更新技術を利用して、サードパーティ間の通信ラウンドを減らす。
CELU-VFLは既存の作業の最大6倍高速であることを示す。
論文 参考訳(メタデータ) (2022-07-29T12:10:36Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - LotteryFL: Personalized and Communication-Efficient Federated Learning
with Lottery Ticket Hypothesis on Non-IID Datasets [52.60094373289771]
フェデレーション学習は、プライバシーを強化した、人気のある分散機械学習パラダイムである。
パーソナライズされたコミュニケーション効率の高いフェデレーション学習フレームワークであるLotteryFLを提案する。
LotteryFLはパーソナライズと通信コストの点で既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2020-08-07T20:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。