論文の概要: Federated Split GANs
- arxiv url: http://arxiv.org/abs/2207.01750v1
- Date: Mon, 4 Jul 2022 23:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 05:13:17.367411
- Title: Federated Split GANs
- Title(参考訳): Federated Split GANs
- Authors: Pranvera Korto\c{c}i, Yilei Liang, Pengyuan Zhou, Lik-Hang Lee, Abbas
Mehrabi, Pan Hui, Sasu Tarkoma, Jon Crowcroft
- Abstract要約: ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
- 参考スコア(独自算出の注目度): 12.007429155505767
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Mobile devices and the immense amount and variety of data they generate are
key enablers of machine learning (ML)-based applications. Traditional ML
techniques have shifted toward new paradigms such as federated (FL) and split
learning (SL) to improve the protection of user's data privacy. However, these
paradigms often rely on server(s) located in the edge or cloud to train
computationally-heavy parts of a ML model to avoid draining the limited
resource on client devices, resulting in exposing device data to such third
parties. This work proposes an alternative approach to train
computationally-heavy ML models in user's devices themselves, where
corresponding device data resides. Specifically, we focus on GANs (generative
adversarial networks) and leverage their inherent privacy-preserving attribute.
We train the discriminative part of a GAN with raw data on user's devices,
whereas the generative model is trained remotely (e.g., server) for which there
is no need to access sensor true data. Moreover, our approach ensures that the
computational load of training the discriminative model is shared among user's
devices-proportional to their computation capabilities-by means of SL. We
implement our proposed collaborative training scheme of a computationally-heavy
GAN model in real resource-constrained devices. The results show that our
system preserves data privacy, keeps a short training time, and yields same
accuracy of model training in unconstrained devices (e.g., cloud). Our code can
be found on https://github.com/YukariSonz/FSL-GAN
- Abstract(参考訳): モバイルデバイスとそれらが生成する膨大な量と多様なデータが、機械学習(ML)ベースのアプリケーションの重要な実現要因である。
従来のML技術は、ユーザのデータプライバシ保護を改善するために、フェデレーション(FL)や分割学習(SL)といった新しいパラダイムに移行している。
しかしながら、これらのパラダイムは、クライアントデバイス上の限られたリソースの流出を避けるために、MLモデルの計算量の多い部分をトレーニングするために、エッジやクラウドに位置するサーバに依存することが多い。
本研究は,ユーザのデバイス自体に計算量の多いMLモデルをトレーニングするための代替手法を提案する。
具体的には、gan(generative adversarial networks)に注目し、その固有のプライバシー保護属性を活用します。
我々はganの識別部分をユーザのデバイス上の生データで訓練するが、生成モデルはリモート(例えばサーバ)で訓練され、センサの真のデータにアクセスする必要がない。
さらに,本手法により,識別モデルの学習の計算負荷が,SLを用いてユーザのデバイス間で共有されることが保証される。
実資源制約のあるデバイスにおいて,計算量の多いGANモデルの協調学習手法を実装した。
その結果,本システムはデータのプライバシを保ち,短時間のトレーニング時間を保ち,制約のないデバイス(クラウドなど)におけるモデルトレーニングの精度が同じであることがわかった。
私たちのコードはhttps://github.com/YukariSonz/FSL-GANで確認できます。
関連論文リスト
- Federated Learning for Misbehaviour Detection with Variational Autoencoders and Gaussian Mixture Models [0.2999888908665658]
Federated Learning (FL)は、機械学習(ML)モデルを協調的にトレーニングするための魅力的なアプローチになっている。
本研究は、車載環境における潜在的な不適切な行動を特定するための、新しい教師なしFLアプローチを提案する。
当社は、モデルアグリゲーションの目的のために、パブリッククラウドサービスのコンピューティング能力を活用しています。
論文 参考訳(メタデータ) (2024-05-16T08:49:50Z) - CRSFL: Cluster-based Resource-aware Split Federated Learning for Continuous Authentication [5.636155173401658]
分散学習(SL)とフェデレート学習(FL)は、分散機械学習(ML)モデルをトレーニングするための有望な技術として登場した。
我々はこれらの技術を組み合わせて、ユーザのプライバシーを保護しながら、継続的な認証課題に取り組むことを提案する。
論文 参考訳(メタデータ) (2024-05-12T06:08:21Z) - Partial Federated Learning [26.357723187375665]
Federated Learning(FL)は、エッジデバイスに制約されたユーザデータに基づいて機械学習モデルをトレーニングする一般的なアルゴリズムである。
そこで我々は、機械学習モデルに、データのサブセットをサーバに提供可能なデータを用いてトレーニングする、Partial Federated Learning (PartialFL) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-03T21:04:36Z) - Unsupervised anomalies detection in IIoT edge devices networks using
federated learning [0.0]
分散機械学習アプローチとしてのフェデレーション学習(FL)は、データそのものを収集したデバイス上で、マシンラーニングモデルのトレーニングを実行する。
本稿では、最近のIoT/IIoTデバイスネットワークを表すデータセットにFLの利点を活用し、Fedavgアルゴリズムを実装した。
また,障害デバイスがトレーニングのすべての段階で参加していない場合,トレーニング中に発生する不公平さなど,Fedavgの欠点も評価した。
論文 参考訳(メタデータ) (2023-08-23T14:53:38Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。