論文の概要: Decoupled Vertical Federated Learning for Practical Training on Vertically Partitioned Data
- arxiv url: http://arxiv.org/abs/2403.03871v2
- Date: Sun, 01 Dec 2024 18:13:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:54:43.508770
- Title: Decoupled Vertical Federated Learning for Practical Training on Vertically Partitioned Data
- Title(参考訳): 垂直分割データを用いた実践訓練のための非結合型垂直フェデレーション学習
- Authors: Avi Amalanshu, Yash Sirvi, David I. Inouye,
- Abstract要約: 本稿では,故障を伴うトレーニングを行うためのデカップリング型VFL(DVFL)を提案する。
DVFLは、ローカルな教師なしの目的を用いて、コミュニケーションラウンド間のトレーニングを分離する。
二次的な利点として、DVFLはデータの効率を高め、勾配ベースの攻撃に対する免疫を提供する。
- 参考スコア(独自算出の注目度): 8.759583928626702
- License:
- Abstract: Vertical Federated Learning (VFL) is an emergent distributed machine learning paradigm for collaborative learning between clients who have disjoint features of common entities. However, standard VFL lacks fault tolerance, with each participant and connection being a single point of failure. Prior attempts to induce fault tolerance in VFL focus on the scenario of "straggling clients", usually entailing that all messages eventually arrive or that there is an upper bound on the number of late messages. To handle the more general problem of arbitrary crashes, we propose Decoupled VFL (DVFL). To handle training with faults, DVFL decouples training between communication rounds using local unsupervised objectives. By further decoupling label supervision from aggregation, DVFL also enables redundant aggregators. As secondary benefits, DVFL can enhance data efficiency and provides immunity against gradient-based attacks. In this work, we implement DVFL for split neural networks with a self-supervised autoencoder loss. When there are faults, DVFL outperforms the best VFL-based alternative (97.58% vs 96.95% on an MNIST task). Even under perfect conditions, performance is comparable.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、共通のエンティティの非結合機能を持つクライアント間の協調学習のための、創発的な分散機械学習パラダイムである。
しかしながら、標準のVFLにはフォールトトレランスがなく、各参加者と接続は単一障害点である。
VFLでフォールトトレランスを誘発しようとする以前の試みは、通常、すべてのメッセージが最終的に到着する、あるいは遅延メッセージの数に上限がある、というシナリオに重点を置いていた。
任意のクラッシュのより一般的な問題に対処するために、デカップリング型VFL(DVFL)を提案する。
障害によるトレーニングを扱うため、DVFLは、ローカルな教師なしの目的を用いて、通信ラウンド間のトレーニングを分離する。
ラベルの監督をアグリゲーションからさらに切り離すことで、DVFLはまた冗長なアグリゲータを可能にする。
二次的な利点として、DVFLはデータの効率を高め、勾配ベースの攻撃に対する免疫を提供する。
本研究では、自己教師付きオートエンコーダ損失を伴う分割ニューラルネットワークのためのDVFLを実装した。
欠点がある場合、DVFLは最高のVFLベースの代替品(MNISTタスクでは97.58%対96.95%)より優れている。
完璧な条件下であっても、パフォーマンスは同等です。
関連論文リスト
- Cooperative Decentralized Backdoor Attacks on Vertical Federated Learning [22.076364118223324]
本稿では,垂直フェデレートラーニング(VFL)に対する新たなバックドアアタックを提案する。
ラベル推論モデルでは,距離学習による変分オートエンコーダが強化され,相手がローカルに学習できる。
コンバージェンス解析により,トレーニングモデルの定常差によって示されるVFLに対するバックドアの摂動の影響が明らかになった。
論文 参考訳(メタデータ) (2025-01-16T06:22:35Z) - FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Fault Tolerant Serverless VFL Over Dynamic Device Environment [15.757660512833006]
本稿では,DN-VFLと呼ばれる動的ネットワーク条件下での垂直的フェデレーション学習(VFL)の試験時間性能について検討する。
我々は,複製,ゴシップ,選択的特徴欠落を合成し,ベースラインよりも性能を大幅に向上させる,マルチプルアグリゲーション(Multiple Aggregation with Gossip Rounds and Simulated Faults (MAGS))と呼ばれる新しいDN-VFLアプローチを開発した。
論文 参考訳(メタデータ) (2023-12-27T17:00:09Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - A Fast Blockchain-based Federated Learning Framework with Compressed
Communications [14.344080339573278]
近年,ブロックチェーンベースのフェデレーション学習(BFL)が注目されている。
本稿では,BFLの訓練効率を向上させるために,BCFLと呼ばれる高速なBFLを提案する。
論文 参考訳(メタデータ) (2022-08-12T03:04:55Z) - Low-Latency Cooperative Spectrum Sensing via Truncated Vertical
Federated Learning [51.51440623636274]
データプライバシを損なうことなく、複数のセカンダリユーザ(SU)にまたがる分散機能を活用できる垂直連合学習(VFL)フレームワークを提案する。
学習プロセスの高速化を目的として,T-VFL(Truncated vertical Federated Learning)アルゴリズムを提案する。
T-VFLの収束性能は、数学的解析によって提供され、シミュレーション結果によって正当化される。
論文 参考訳(メタデータ) (2022-08-07T10:39:27Z) - Towards Communication-efficient Vertical Federated Learning Training via
Cache-enabled Local Updates [25.85564668511386]
CELU-VFLは,新しい,効率的な垂直学習フレームワークである。
CELU-VFLは、ローカル更新技術を利用して、サードパーティ間の通信ラウンドを減らす。
CELU-VFLは既存の作業の最大6倍高速であることを示す。
論文 参考訳(メタデータ) (2022-07-29T12:10:36Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Achieving Model Fairness in Vertical Federated Learning [47.8598060954355]
垂直連合学習(VFL)は、複数の企業が重複しない機能を保有して、プライベートデータやモデルパラメータを開示することなく、機械学習モデルを強化することを可能にする。
VFLは公平性の問題に悩まされており、すなわち、学習されたモデルはセンシティブな属性を持つグループに対して不公平に差別的である可能性がある。
この問題に対処するための公平なVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。