論文の概要: StatMix: Data augmentation method that relies on image statistics in
federated learning
- arxiv url: http://arxiv.org/abs/2207.04103v1
- Date: Fri, 8 Jul 2022 19:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:31:44.214035
- Title: StatMix: Data augmentation method that relies on image statistics in
federated learning
- Title(参考訳): StatMix:フェデレーション学習における画像統計を利用したデータ拡張手法
- Authors: Dominik Lewy, Jacek Ma\'ndziuk, Maria Ganzha, Marcin Paprzycki
- Abstract要約: StatMixは、画像統計を用いてFLシナリオの結果を改善する拡張アプローチである。
すべてのFL実験において、StatMixの応用は(StatMixを使わない)ベースライントレーニングと比較して平均精度を向上させる。
- 参考スコア(独自算出の注目度): 0.27528170226206433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Availability of large amount of annotated data is one of the pillars of deep
learning success. Although numerous big datasets have been made available for
research, this is often not the case in real life applications (e.g. companies
are not able to share data due to GDPR or concerns related to intellectual
property rights protection). Federated learning (FL) is a potential solution to
this problem, as it enables training a global model on data scattered across
multiple nodes, without sharing local data itself. However, even FL methods
pose a threat to data privacy, if not handled properly. Therefore, we propose
StatMix, an augmentation approach that uses image statistics, to improve
results of FL scenario(s). StatMix is empirically tested on CIFAR-10 and
CIFAR-100, using two neural network architectures. In all FL experiments,
application of StatMix improves the average accuracy, compared to the baseline
training (with no use of StatMix). Some improvement can also be observed in
non-FL setups.
- Abstract(参考訳): 大量の注釈付きデータの可用性は、ディープラーニングの成功の柱のひとつだ。
多くの大きなデータセットが研究用に提供されているが、現実のアプリケーションではそうではないことが多い(例えば、企業はGDPRや知的財産権保護に関する懸念のためにデータを共有できない)。
フェデレートラーニング(FL)は、ローカルデータ自体を共有することなく、複数のノードにまたがるデータに対するグローバルモデルのトレーニングを可能にするため、この問題に対する潜在的な解決策である。
しかし、FLメソッドでさえ、適切に扱わなくても、データのプライバシに脅威をもたらす。
そこで本稿では,FLシナリオの結果を改善するために,画像統計を用いた拡張手法StatMixを提案する。
StatMixは2つのニューラルネットワークアーキテクチャを使用して、CIFAR-10とCIFAR-100で実験的にテストされている。
全てのFL実験において、StatMixの応用は(StatMixを使わない)ベースライントレーニングと比較して平均精度を向上させる。
FL以外の設定でもいくつかの改善が観察できる。
関連論文リスト
- StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - The Applicability of Federated Learning to Official Statistics [0.5461938536945721]
本研究は,公式統計学におけるフェデレートラーニングの可能性について考察する。
これは、FLモデルの性能が集中的な学習方法にいかに追いつくかを示す。
論文 参考訳(メタデータ) (2023-07-28T11:58:26Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。