論文の概要: PyVertical: A Vertical Federated Learning Framework for Multi-headed
SplitNN
- arxiv url: http://arxiv.org/abs/2104.00489v1
- Date: Thu, 1 Apr 2021 14:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 21:19:03.863663
- Title: PyVertical: A Vertical Federated Learning Framework for Multi-headed
SplitNN
- Title(参考訳): PyVertical: マルチヘッドスプリットNNのための垂直フェデレーション学習フレームワーク
- Authors: Daniele Romanini, Adam James Hall, Pavlos Papadopoulos, Tom Titcombe,
Abbas Ismail, Tudor Cebere, Robert Sandmann, Robin Roehm, Michael A. Hoeh
- Abstract要約: PyVerticalは、分割ニューラルネットワークを使用した垂直連合学習をサポートするフレームワークである。
2つのデータ所有者とデータサイエンティストに垂直に分散したデータサンプルを用いて、MNIST分類タスクのための単純なデュアルヘッドスプリットニューラルネットワークのトレーニングを提示する。
- 参考スコア(独自算出の注目度): 4.552318473944852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce PyVertical, a framework supporting vertical federated learning
using split neural networks. The proposed framework allows a data scientist to
train neural networks on data features vertically partitioned across multiple
owners while keeping raw data on an owner's device. To link entities shared
across different datasets' partitions, we use Private Set Intersection on IDs
associated with data points. To demonstrate the validity of the proposed
framework, we present the training of a simple dual-headed split neural network
for a MNIST classification task, with data samples vertically distributed
across two data owners and a data scientist.
- Abstract(参考訳): 分割ニューラルネットワークを用いた垂直連合学習を支援するフレームワークであるPyVerticalを紹介する。
提案フレームワークにより、データサイエンティストは、複数の所有者間で垂直に分割されたデータフィーチャ上のニューラルネットワークを、所有者のデバイスに生のデータを保持しながらトレーニングすることができる。
異なるデータセットのパーティション間で共有されるエンティティをリンクするために、データポイントに関連するIDにPrivate Set Intersectionを使用する。
そこで,提案手法の有効性を示すために,mnist分類タスク用に,データサンプルを2つのデータ所有者とデータサイエンティストに垂直に分散した,単純な二頭分割ニューラルネットワークのトレーニングを行った。
関連論文リスト
- Neural Network Training on Encrypted Data with TFHE [0.0]
ニューラルネットワークのトレーニングをアウトソーシングする上で,悪意のある関係者からのデータの機密性を確保しながら,そのアウトソーシングを行うアプローチを提案する。
完全に同型な暗号化を使用して、暗号化データで動作し、量子化されたニューラルネットワークモデルを学ぶ統一的なトレーニングアプローチを構築します。
論文 参考訳(メタデータ) (2024-01-29T13:07:08Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Vertical Federated Principal Component Analysis and Its Kernel Extension
on Feature-wise Distributed Data [35.72930187906397]
本稿では,垂直分割データセット設定下での教師なしフェデレーション学習について検討する。
本稿では,垂直分割データセット (VFedPCA) 法における連合主成分分析法を提案する。
また, 非線形次元減少の利点を生かし, 垂直結合型先進カーネル主成分分析法(VFedAKPCA)を提案する。
論文 参考訳(メタデータ) (2022-03-03T14:58:29Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Cross-Silo Federated Learning for Multi-Tier Networks with Vertical and Horizontal Data Partitioning [20.410494162333972]
Tiered Decentralized Coordinate Descent (TDCD)は、2層通信ネットワークのための分散トレーニングアルゴリズムである。
本稿では,本アルゴリズムの理論的解析を行い,垂直分割数と局所更新数に対する収束率の依存性を示す。
論文 参考訳(メタデータ) (2021-08-19T22:01:04Z) - Multi-VFL: A Vertical Federated Learning System for Multiple Data and
Label Owners [10.507522234243021]
本稿では,複数のデータとラベルを持つ場合のVFLモデルの学習方法として,Multi-VFL(Multi-VFL)を提案する。
モデルアグリゲーションのための適応データセットを用いることで収束が加速し、精度が向上することを示す。
論文 参考訳(メタデータ) (2021-06-10T03:00:57Z) - Multi-Tier Federated Learning for Vertically Partitioned Data [2.817412580574242]
階層型データセットネットワークにおける分散モデルトレーニングについて検討する。
我々のネットワークモデルはサイロの集合で構成され、それぞれがデータの垂直分割を保持する。
論文 参考訳(メタデータ) (2021-02-06T17:34:14Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。