論文の概要: FedCVT: Semi-supervised Vertical Federated Learning with Cross-view
Training
- arxiv url: http://arxiv.org/abs/2008.10838v2
- Date: Thu, 6 Oct 2022 04:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:08:38.711359
- Title: FedCVT: Semi-supervised Vertical Federated Learning with Cross-view
Training
- Title(参考訳): fedcvt:クロスビュートレーニングによる半教師付き垂直フェデレーション学習
- Authors: Yan Kang, Yang Liu, Xinle Liang
- Abstract要約: フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
- 参考スコア(独自算出の注目度): 7.8224072504453055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning allows multiple parties to build machine learning models
collaboratively without exposing data. In particular, vertical federated
learning (VFL) enables participating parties to build a joint machine learning
model based upon distributed features of aligned samples. However, VFL requires
all parties to share a sufficient amount of aligned samples. In reality, the
set of aligned samples may be small, leaving the majority of the non-aligned
data unused. In this article, we propose Federated Cross-view Training
(FedCVT), a semi-supervised learning approach that improves the performance of
the VFL model with limited aligned samples. More specifically, FedCVT estimates
representations for missing features, predicts pseudo-labels for unlabeled
samples to expand the training set, and trains three classifiers jointly based
upon different views of the expanded training set to improve the VFL model's
performance. FedCVT does not require parties to share their original data and
model parameters, thus preserving data privacy. We conduct experiments on
NUS-WIDE, Vehicle, and CIFAR10 datasets. The experimental results demonstrate
that FedCVT significantly outperforms vanilla VFL that only utilizes aligned
samples. Finally, we perform ablation studies to investigate the contribution
of each component of FedCVT to the performance of FedCVT.
- Abstract(参考訳): フェデレートされた学習により、複数のパーティがデータを公開することなく、協調して機械学習モデルを構築することができる。
特に、垂直連合学習(VFL)により、参加者は、アライメントされたサンプルの分散特徴に基づいて、共同機械学習モデルを構築することができる。
しかしながら、VFLはすべての関係者に十分な量の一致したサンプルを共有することを要求する。
実際、アライメントされたサンプルの集合は小さくなり、非アライメントされたデータの大部分は使われないままである。
本稿では,準教師付き学習手法であるfederated cross-view training (fedcvt)を提案する。
具体的には、feedcvtは欠落した特徴の表現を推定し、ラベルのないサンプルの擬似ラベルを予測してトレーニングセットを拡大し、vflモデルの性能を改善するために拡張トレーニングセットの異なるビューに基づいて3つの分類器を共同で訓練する。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
NUS-WIDE, Vehicle, CIFAR10データセットについて実験を行った。
実験の結果,FedCVTはアライメント標本のみを利用するバニラVFLよりも優れていた。
最後に,FedCVTの各成分がFedCVTの性能に与える影響について,アブレーション研究を行った。
関連論文リスト
- Vertical Federated Learning with Missing Features During Training and Inference [37.44022318612869]
本稿では,ニューラルネットワークに基づくモデルの学習と推論を効率的に行うための垂直連合学習手法を提案する。
私たちのアプローチは単純だが効果的であり、タスクサンプリングと推論におけるパラメータの戦略的共有に依存しています。
数値実験により, ベースライン上におけるLASER-VFLの性能が向上した。
論文 参考訳(メタデータ) (2024-10-29T22:09:31Z) - ConDistFL: Conditional Distillation for Federated Learning from
Partially Annotated Data [5.210280120905009]
コンディストFL(ConDistFL)は、フェデレートラーニング(FL)と知識蒸留を組み合わせた枠組みである。
我々は,MSDとKITS19の課題から4つの異なる部分的腹部CTデータセットの枠組みを検証した。
本研究は,コンディストFLが頻繁なアグリゲーションを伴わずに良好に機能し,FLの通信コストを低減できることを示唆する。
論文 参考訳(メタデータ) (2023-08-08T06:07:49Z) - Test-Time Adaptation with CLIP Reward for Zero-Shot Generalization in
Vision-Language Models [76.410400238974]
モデル出力を補正し、モデルが盲目的に自信を持たないようにするためのフィードバック付きTTAを提案する。
CLIPモデルは、TTA中に報酬モデルとして採用され、VLMにフィードバックを提供する。
提案したCLIPフィードバック(RLCF)フレームワークによるテキスト強化学習は非常に柔軟で普遍的である。
論文 参考訳(メタデータ) (2023-05-29T11:03:59Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Multi-Model Federated Learning with Provable Guarantees [19.470024548995717]
Federated Learning (FL) は分散学習の亜種であり、デバイスは中央サーバや互いにデータを共有せずにモデルを学習する。
多モデルエッジFLとして,クライアントの共通プールを用いたフェデレーション設定において,複数の独立クライアントの処理を同時に参照する。
論文 参考訳(メタデータ) (2022-07-09T19:47:52Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - A Coupled Design of Exploiting Record Similarity for Practical Vertical
Federated Learning [47.77625754666018]
フェデレートドラーニング(Federated Learning)は、生データを明らかにすることなく、さまざまなパーティ間で協調学習を可能にする学習パラダイムである。
垂直連合学習における既存の研究は「記録リンク」プロセスを無視している。
トレーニングプロセスに1対多のリンケージを統合する新しい複合トレーニングパラダイムであるFedSimを設計する。
論文 参考訳(メタデータ) (2021-06-11T11:09:53Z) - Multi-VFL: A Vertical Federated Learning System for Multiple Data and
Label Owners [10.507522234243021]
本稿では,複数のデータとラベルを持つ場合のVFLモデルの学習方法として,Multi-VFL(Multi-VFL)を提案する。
モデルアグリゲーションのための適応データセットを用いることで収束が加速し、精度が向上することを示す。
論文 参考訳(メタデータ) (2021-06-10T03:00:57Z) - FedV: Privacy-Preserving Federated Learning over Vertically Partitioned
Data [12.815996963583641]
複数当事者間の機械学習(ML)モデルの共同トレーニングを可能にするために、フェデレーションラーニング(FL)が提案されている。
FedVは、広く使用されているいくつかのMLモデルの垂直設定におけるグラデーション計算をセキュアにするためのフレームワークである。
トレーニング時間の10%から70%、データ転送の80%から90%を、最先端のアプローチで削減できることを示した。
論文 参考訳(メタデータ) (2021-03-05T19:59:29Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。