論文の概要: Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data
- arxiv url: http://arxiv.org/abs/2403.03871v1
- Date: Wed, 6 Mar 2024 17:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:14:15.011135
- Title: Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data
- Title(参考訳): 垂直分割データを用いた実践訓練のための非結合型垂直フェデレーション学習
- Authors: Avi Amalanshu, Yash Sirvi, David I. Inouye
- Abstract要約: 本稿では,垂直的フェデレート学習(VFL)に対するブロックワイズ学習手法を提案する。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学習する。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
- 参考スコア(独自算出の注目度): 9.84489449520821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (VFL) is an emergent distributed machine learning
paradigm wherein owners of disjoint features of a common set of entities
collaborate to learn a global model without sharing data. In VFL, a host client
owns data labels for each entity and learns a final representation based on
intermediate local representations from all guest clients. Therefore, the host
is a single point of failure and label feedback can be used by malicious guest
clients to infer private features. Requiring all participants to remain active
and trustworthy throughout the entire training process is generally impractical
and altogether infeasible outside of controlled environments. We propose
Decoupled VFL (DVFL), a blockwise learning approach to VFL. By training each
model on its own objective, DVFL allows for decentralized aggregation and
isolation between feature learning and label supervision. With these
properties, DVFL is fault tolerant and secure. We implement DVFL to train split
neural networks and show that model performance is comparable to VFL on a
variety of classification datasets.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、共通のエンティティの非結合機能の所有者が協力して、データを共有することなくグローバルモデルを学ぶ、創発的な分散機械学習パラダイムである。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学ぶ。
したがって、ホストは単一障害点であり、ラベルのフィードバックは悪意のあるゲストクライアントがプライベート機能を推測するために使用できる。
トレーニングプロセス全体を通して、すべての参加者がアクティブで信頼できることを要求するのは、一般的には非現実的であり、制御された環境以外では不可能です。
本稿では,VFLに対するブロックワイズ学習手法であるDecoupled VFL (DVFL)を提案する。
それぞれのモデルを独自の目的でトレーニングすることで、DVFLは分散集約と特徴学習とラベル管理の分離を可能にします。
これらの特性により、DVFLはフォールトトレラントで安全である。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
関連論文リスト
- De-VertiFL: A Solution for Decentralized Vertical Federated Learning [7.877130417748362]
この研究は、分散VFL設定でモデルをトレーニングするための新しいソリューションであるDe-VertiFLを紹介している。
De-VertiFLは、新しいネットワークアーキテクチャディストリビューション、革新的な知識交換スキーム、分散フェデレーショントレーニングプロセスを導入することで貢献する。
その結果、De-VertiFLは一般的にF1スコアのパフォーマンスにおいて最先端のメソッドを上回り、分散化とプライバシ保護のフレームワークを維持していることがわかった。
論文 参考訳(メタデータ) (2024-10-08T15:31:10Z) - TabVFL: Improving Latent Representation in Vertical Federated Learning [6.602969765752305]
TabVFLは、参加者のジョイント機能を使って潜在表現学習を改善するために設計された分散フレームワークである。
本稿では,参加者の協調的特徴を用いた潜在表現学習の改善を目的とした分散フレームワークTabVFLを提案する。
論文 参考訳(メタデータ) (2024-04-27T19:40:35Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Multi-Participant Multi-Class Vertical Federated Learning [16.75182305714081]
本稿では,多人数VFL問題に対する多人数多人数垂直フェデレート学習(MMVFL)フレームワークを提案する。
MMVFLは、所有者から他のVFL参加者へのラベルの共有をプライバシー保護の方法で行うことができる。
実世界のデータセットを用いた実験結果から,MMVFLは複数のVFL参加者間でラベル情報を効果的に共有し,既存手法のマルチクラス分類性能と一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-01-30T02:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。