論文の概要: XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning
- arxiv url: http://arxiv.org/abs/2006.05148v1
- Date: Tue, 9 Jun 2020 09:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:56:56.795388
- Title: XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning
- Title(参考訳): XOR Mixup: ワンショットフェデレーション学習のためのプライバシ保護データ拡張
- Authors: MyungJae Shin, Chihoon Hwang, Joongheon Kim, Jihong Park, Mehdi Bennis
and Seong-Lyun Kim
- Abstract要約: 我々は、XorMixupという、プライバシー保護のためのXORベースのミックスアップデータ拡張技術を開発した。
中心となる考え方は、各デバイスのデータサンプルのみを使用してデコードされた、他のデバイスのエンコードされたデータサンプルを収集することである。
XorMixFLは、非IID MNISTデータセットの下で、Vanilla FLよりも最大17.6%高い精度を達成する。
- 参考スコア(独自算出の注目度): 49.130350799077114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-generated data distributions are often imbalanced across devices and
labels, hampering the performance of federated learning (FL). To remedy to this
non-independent and identically distributed (non-IID) data problem, in this
work we develop a privacy-preserving XOR based mixup data augmentation
technique, coined XorMixup, and thereby propose a novel one-shot FL framework,
termed XorMixFL. The core idea is to collect other devices' encoded data
samples that are decoded only using each device's own data samples. The
decoding provides synthetic-but-realistic samples until inducing an IID
dataset, used for model training. Both encoding and decoding procedures follow
the bit-wise XOR operations that intentionally distort raw samples, thereby
preserving data privacy. Simulation results corroborate that XorMixFL achieves
up to 17.6% higher accuracy than Vanilla FL under a non-IID MNIST dataset.
- Abstract(参考訳): ユーザ生成データ分散はしばしばデバイスやラベル間で不均衡であり、フェデレートラーニング(FL)のパフォーマンスを妨げる。
この非独立で同一の(IIDではない)データ問題に対処するため、プライバシー保護のためのXORベースのミックスアップデータ拡張技術であるXorMixupを開発し、XorMixFLと呼ばれる新しいワンショットFLフレームワークを提案する。
コアとなるアイデアは、各デバイスのデータサンプルのみを使用してデコードされる、他のデバイスのエンコードされたデータサンプルを収集することだ。
復号化は、モデルトレーニングに使用されるIDデータセットが生成されるまで、合成が現実的なサンプルを提供する。
符号化処理と復号処理の両方は、故意にサンプルを歪ませ、データのプライバシを保存するビットワイズXOR操作に従う。
シミュレーションの結果、xormixflは非iid mnistデータセットでvanilla flよりも最大17.6%高い精度を達成している。
関連論文リスト
- Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z) - A Data Cartography based MixUp for Pre-trained Language Models [47.90235939359225]
MixUpは、トレーニング中にランダムなトレーニングサンプルとラベルを組み合わせて追加のサンプルを生成するデータ拡張戦略である。
トレーニングダイナミクスを活用した新しいMixUp戦略であるTDMixUpを提案する。
提案手法は, トレーニングデータの少ないサブセットと強いベースラインとを比較した場合, また, NLPタスクの領域内および領域外の両方で, トレーニング済み言語モデルであるBERTのキャリブレーション誤差が低いことを実証的に検証した。
論文 参考訳(メタデータ) (2022-05-06T17:59:19Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Data-Free Network Quantization With Adversarial Knowledge Distillation [39.92282726292386]
本稿では,合成データを用いたデータフリーネットワーク量子化について考察する。
合成データはジェネレータから生成されるが、ジェネレータのトレーニングや量子化にはデータを使用しない。
複数のジェネレータと複数の学生を用いて多様な対向サンプルを作成できることを示す。
論文 参考訳(メタデータ) (2020-05-08T16:24:55Z) - Communication-Efficient On-Device Machine Learning: Federated
Distillation and Augmentation under Non-IID Private Data [31.85853956347045]
オンデバイス機械学習(ML)により、トレーニングプロセスは大量のユーザ生成プライベートデータサンプルを利用することができる。
分散モデル学習アルゴリズムであるフェデレート蒸留(FD)を提案する。
FAug を用いた FD は FL と比較して 95-98% の精度で通信オーバヘッドの約26倍の低下を示した。
論文 参考訳(メタデータ) (2018-11-28T10:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。