論文の概要: Multi-VFL: A Vertical Federated Learning System for Multiple Data and
Label Owners
- arxiv url: http://arxiv.org/abs/2106.05468v1
- Date: Thu, 10 Jun 2021 03:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:16:54.946344
- Title: Multi-VFL: A Vertical Federated Learning System for Multiple Data and
Label Owners
- Title(参考訳): Multi-VFL:複数データおよびラベル所有者のための垂直統合学習システム
- Authors: Vaikkunth Mugunthan, Pawan Goyal and Lalana Kagal
- Abstract要約: 本稿では,複数のデータとラベルを持つ場合のVFLモデルの学習方法として,Multi-VFL(Multi-VFL)を提案する。
モデルアグリゲーションのための適応データセットを用いることで収束が加速し、精度が向上することを示す。
- 参考スコア(独自算出の注目度): 10.507522234243021
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vertical Federated Learning (VFL) refers to the collaborative training of a
model on a dataset where the features of the dataset are split among multiple
data owners, while label information is owned by a single data owner. In this
paper, we propose a novel method, Multi Vertical Federated Learning
(Multi-VFL), to train VFL models when there are multiple data and label owners.
Our approach is the first to consider the setting where $D$-data owners (across
which features are distributed) and $K$-label owners (across which labels are
distributed) exist. This proposed configuration allows different entities to
train and learn optimal models without having to share their data. Our
framework makes use of split learning and adaptive federated optimizers to
solve this problem. For empirical evaluation, we run experiments on the MNIST
and FashionMNIST datasets. Our results show that using adaptive optimizers for
model aggregation fastens convergence and improves accuracy.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、データセットの特徴を複数のデータ所有者に分割し、ラベル情報は単一のデータ所有者が所有するデータセット上のモデルの協調的なトレーニングを指す。
本稿では,複数のデータとラベル所有者が存在する場合に,VFLモデルを学習するための新しい手法であるMulti-VFLを提案する。
当社のアプローチは、d$-dataオーナー(どの機能が配布されているか)と$k$-labelオーナー(どのラベルが配布されているか)が存在する設定を検討する最初の方法です。
この構成により、異なるエンティティがデータを共有することなく、最適なモデルをトレーニングし、学習することができる。
本フレームワークでは,スプリット学習と適応フェデレーションオプティマイザを用いてこの問題を解決する。
経験的評価のために、mnist と fashionmnist データセットで実験を行う。
モデルアグリゲーションのための適応最適化器は収束を加速し、精度を向上する。
関連論文リスト
- TMT-VIS: Taxonomy-aware Multi-dataset Joint Training for Video Instance
Segmentation [51.199543962233506]
大規模データセットのトレーニングは、ビデオインスタンスセグメンテーションのパフォーマンスを高めることができるが、VISのデータセットは労働コストが高いためスケールアップが難しい。
私たちが持っているものは、多数の独立した提出された特定のデータセットであり、データ量と多様性を高めるためにデータセットの集合をまたいだモデルを共同でトレーニングすることが魅力です。
我々は、YouTube-VIS 2019、YouTube-VIS 2021、OVIS、UVOの4つの人気で挑戦的なベンチマークで、広範囲に評価を行っている。
本モデルでは,ベースラインソリューションよりも大幅に改善され,すべてのベンチマークで新たな最先端レコードが設定される。
論文 参考訳(メタデータ) (2023-12-11T18:50:09Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Multi-Model Federated Learning with Provable Guarantees [19.470024548995717]
Federated Learning (FL) は分散学習の亜種であり、デバイスは中央サーバや互いにデータを共有せずにモデルを学習する。
多モデルエッジFLとして,クライアントの共通プールを用いたフェデレーション設定において,複数の独立クライアントの処理を同時に参照する。
論文 参考訳(メタデータ) (2022-07-09T19:47:52Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view
Training [7.8224072504453055]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - Federated Visual Classification with Real-World Data Distribution [9.564468846277366]
我々は,FedAvg(Federated Averaging)アルゴリズムのベンチマークを用いて,実世界のデータ分布が分散学習に与える影響を特徴付ける。
種別とランドマーク分類のための2つの新しい大規模データセットを導入し,ユーザ毎のデータ分割を現実的に行う。
また、2つの新しいアルゴリズム(FedVC、FedIR)も開発しています。
論文 参考訳(メタデータ) (2020-03-18T07:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。