論文の概要: FedSDG-FS: Efficient and Secure Feature Selection for Vertical Federated
Learning
- arxiv url: http://arxiv.org/abs/2302.10417v1
- Date: Tue, 21 Feb 2023 03:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:33:37.011307
- Title: FedSDG-FS: Efficient and Secure Feature Selection for Vertical Federated
Learning
- Title(参考訳): FedSDG-FS:垂直的フェデレーション学習のための効率的かつセキュアな特徴選択
- Authors: Anran Li, Hongyi Peng, Lan Zhang, Jiahui Huang, Qing Guo, Han Yu, Yang
Liu
- Abstract要約: Vertical Learning(VFL)は、複数のデータオーナに対して、大きな重複するデータサンプルセットに関する機能のサブセットをそれぞれ保持して、有用なグローバルモデルを共同でトレーニングすることを可能にする。
VFLのために設計された既存のFSは、ノイズの多い特徴の数について事前知識を仮定するか、有用な特徴の訓練後のしきい値について事前知識を仮定する。
本稿では,FedSDG-FS(Federated Dual-Gate Based Feature Selection)アプローチを提案する。
- 参考スコア(独自算出の注目度): 21.79965380400454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical Federated Learning (VFL) enables multiple data owners, each holding
a different subset of features about largely overlapping sets of data
sample(s), to jointly train a useful global model. Feature selection (FS) is
important to VFL. It is still an open research problem as existing FS works
designed for VFL either assumes prior knowledge on the number of noisy features
or prior knowledge on the post-training threshold of useful features to be
selected, making them unsuitable for practical applications. To bridge this
gap, we propose the Federated Stochastic Dual-Gate based Feature Selection
(FedSDG-FS) approach. It consists of a Gaussian stochastic dual-gate to
efficiently approximate the probability of a feature being selected, with
privacy protection through Partially Homomorphic Encryption without a trusted
third-party. To reduce overhead, we propose a feature importance initialization
method based on Gini impurity, which can accomplish its goals with only two
parameter transmissions between the server and the clients. Extensive
experiments on both synthetic and real-world datasets show that FedSDG-FS
significantly outperforms existing approaches in terms of achieving accurate
selection of high-quality features as well as building global models with
improved performance.
- Abstract(参考訳): 垂直フェデレーション学習(vertical federated learning, vfl)は,複数のデータオーナが,重複するデータサンプルセットに関するさまざまな機能のサブセットを保持して,有用なグローバルモデルを共同でトレーニング可能にする。
特徴選択(FS)はVFLにとって重要である。
VFL用に設計された既存のFSは、ノイズの多い特徴の数に関する事前知識や、選択すべき有用な特徴の訓練後のしきい値に関する事前知識を前提としており、実用的な用途には適さない。
このギャップを埋めるために,FedSDG-FS (Federated Stochastic Dual-Gate based Feature Selection) アプローチを提案する。
ガウスの確率的双対ゲートからなり、信頼できる第三者がいない部分的準同型暗号によるプライバシー保護により、選択される特徴の確率を効率的に近似する。
オーバヘッドを低減するため,サーバとクライアント間の2つのパラメータ送信のみでゴールを達成できる,Gini不純物に基づく特徴重要初期化手法を提案する。
合成と実世界の両方のデータセットに対する大規模な実験により、FedSDG-FSは、高品質な特徴の正確な選択を達成するだけでなく、パフォーマンスを改善したグローバルモデルを構築するという点で、既存のアプローチよりも大幅に優れていた。
関連論文リスト
- Sequential Federated Learning in Hierarchical Architecture on Non-IID Datasets [25.010661914466354]
実連合学習(FL)システムでは、クライアントとパラメータ(PS)の間でモデルパラメータを渡す際の通信オーバーヘッドがボトルネックとなることが多い。
そこで本研究では,SFL(Sequence FL) HFLを初めて提案し,各サーバに隣接する2つのES間でデータを渡すことで,中央PSを除去し,モデルを完成させることを可能にする。
論文 参考訳(メタデータ) (2024-08-19T07:43:35Z) - Tackling Feature-Classifier Mismatch in Federated Learning via Prompt-Driven Feature Transformation [12.19025665853089]
従来のフェデレートラーニングアプローチでは、グローバルモデルはデータの不均一性に直面するとパフォーマンスが低下する。
我々は,FedPFTと呼ばれる新しいPFLフレームワークを提案し,特徴抽出器の品質を高めつつミスマッチ問題に対処する。
実験の結果,FedPFTは最先端の手法より最大7.08%優れていた。
論文 参考訳(メタデータ) (2024-07-23T02:52:52Z) - Decoupled Federated Learning on Long-Tailed and Non-IID data with
Feature Statistics [20.781607752797445]
特徴統計量(DFL-FS)を用いた2段階分離型フェデレーション学習フレームワークを提案する。
最初の段階では、サーバは、マスキングされたローカル特徴統計クラスタリングによってクライアントのクラスカバレッジ分布を推定する。
第2段階では、DFL-FSは、グローバルな特徴統計に基づくフェデレーションされた特徴再生を使用して、長い尾を持つデータ分布へのモデルの適応性を高める。
論文 参考訳(メタデータ) (2024-03-13T09:24:59Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。