論文の概要: The Sherpa.ai Blind Vertical Federated Learning Paradigm to Minimize the Number of Communications
- arxiv url: http://arxiv.org/abs/2510.17901v1
- Date: Sun, 19 Oct 2025 10:27:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.332633
- Title: The Sherpa.ai Blind Vertical Federated Learning Paradigm to Minimize the Number of Communications
- Title(参考訳): コミュニケーションの最小化のための垂直的統合学習パラダイムSherpa.ai
- Authors: Alex Acero, Daniel M. Jimenez-Gutierrez, Dario Pighin, Enrique Zuazua, Joaquin Del Rio, Xabi Uribe-Etxebarria,
- Abstract要約: フェデレートラーニング(FL)は、生データをプライベートにしながら、複数のパーティ(ノード)間で協調的な分散トレーニングを可能にする。
Sherpa.ai Blind Vertical Federated Learning (SBVFL)は、プライバシとセキュリティのために強化された分散トレーニングメカニズムを活用する新しいパラダイムである。
SBVFLは、医療、金融、製造、航空宇宙、サイバーセキュリティ、防衛産業など、機密性の高い領域にまたがる実用的でプライバシー保護のVFLを可能にする。
- 参考スコア(独自算出の注目度): 0.09578151054169785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) enables collaborative decentralized training across multiple parties (nodes) while keeping raw data private. There are two main paradigms in FL: Horizontal FL (HFL), where all participant nodes share the same feature space but hold different samples, and Vertical FL (VFL), where participants hold complementary features for the same samples. While HFL is widely adopted, VFL is employed in domains where nodes hold complementary features about the same samples. Still, VFL presents a significant limitation: the vast number of communications required during training. This compromises privacy and security, and can lead to high energy consumption, and in some cases, make model training unfeasible due to the high number of communications. In this paper, we introduce Sherpa.ai Blind Vertical Federated Learning (SBVFL), a novel paradigm that leverages a distributed training mechanism enhanced for privacy and security. Decoupling the vast majority of node updates from the server dramatically reduces node-server communication. Experiments show that SBVFL reduces communication by ~99% compared to standard VFL while maintaining accuracy and robustness. Therefore, SBVFL enables practical, privacy-preserving VFL across sensitive domains, including healthcare, finance, manufacturing, aerospace, cybersecurity, and the defense industry.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データをプライベートに保ちながら、複数のパーティ(ノード)間で協調的な分散トレーニングを可能にする。
FLには2つの主要なパラダイムがある: 水平FL(Horizontal FL)、すべてのノードが同じ特徴空間を共有し、異なるサンプルを保持する、垂直FL(Vertical FL)、同じサンプルに対して補完的な特徴を持つ。
HFLは広く採用されているが、VFLはノードが同じサンプルについて補完的な特徴を持つドメインで採用されている。
それでもVFLは、訓練に必要な膨大な通信量という、重大な制限を課している。
これにより、プライバシとセキュリティが損なわれ、高エネルギー消費につながる可能性がある。
本稿では,プライバシとセキュリティに強化された分散トレーニング機構を活用した新しいパラダイムであるSherpa.ai Blind Vertical Federated Learning(SBVFL)を紹介する。
ノード更新の大部分をサーバから切り離すことで,ノードサーバ間の通信が劇的に削減される。
実験によると、SBVFLは精度と堅牢性を維持しながら、標準的なVFLと比較して通信を約99%削減する。
したがって、SBVFLは、医療、金融、製造、航空宇宙、サイバーセキュリティ、防衛産業など、機密性の高い分野にまたがる実用的でプライバシー保護のVFLを可能にする。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Decoupled Vertical Federated Learning for Practical Training on Vertically Partitioned Data [8.759583928626702]
本稿では,故障を伴うトレーニングを行うためのデカップリング型VFL(DVFL)を提案する。
DVFLは、ローカルな教師なしの目的を用いて、コミュニケーションラウンド間のトレーニングを分離する。
二次的な利点として、DVFLはデータの効率を高め、勾配ベースの攻撃に対する免疫を提供する。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Decentralized Federated Learning: A Survey and Perspective [45.81975053649379]
分散FL(DFL)は、中央サーバーを必要としない分散ネットワークアーキテクチャである。
DFLはクライアント間の直接通信を可能にし、通信リソースの大幅な節約をもたらす。
論文 参考訳(メタデータ) (2023-06-02T15:12:58Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Vertical Federated Learning: Taxonomies, Threats, and Prospects [22.487434998185773]
フェデレートラーニング(FL)は、最も人気のある分散機械学習技術である。
FLは水平連合学習(HFL)と垂直連合学習(VFL)に分けられる。
異なる企業が同じ顧客に対して異なる機能を持っているため、VFLはHFLよりも関連性が高い。
VFLは新たな研究分野であるが、HFLに比べて確立されていない。
論文 参考訳(メタデータ) (2023-02-03T05:13:40Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。