論文の概要: Plankton-FL: Exploration of Federated Learning for Privacy-Preserving
Training of Deep Neural Networks for Phytoplankton Classification
- arxiv url: http://arxiv.org/abs/2212.08990v1
- Date: Sun, 18 Dec 2022 02:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:55:10.396450
- Title: Plankton-FL: Exploration of Federated Learning for Privacy-Preserving
Training of Deep Neural Networks for Phytoplankton Classification
- Title(参考訳): Plankton-FL: 植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングのためのフェデレーション学習の探索
- Authors: Daniel Zhang, Vikram Voleti, Alexander Wong and Jason Deglint
- Abstract要約: 本研究では,植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングにフェデレート学習を活用する可能性を検討する。
我々は2つの異なるフェデレーション学習フレームワーク、フェデレーション学習(FL)と相互排他的FL(ME-FL)をシミュレートする。
本研究では,植物プランクトンモニタリングにおけるフェデレート学習の可能性と可能性について実験的に検証した。
- 参考スコア(独自算出の注目度): 81.04987357598802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating high-performance generalizable deep neural networks for
phytoplankton monitoring requires utilizing large-scale data coming from
diverse global water sources. A major challenge to training such networks lies
in data privacy, where data collected at different facilities are often
restricted from being transferred to a centralized location. A promising
approach to overcome this challenge is federated learning, where training is
done at site level on local data, and only the model parameters are exchanged
over the network to generate a global model. In this study, we explore the
feasibility of leveraging federated learning for privacy-preserving training of
deep neural networks for phytoplankton classification. More specifically, we
simulate two different federated learning frameworks, federated learning (FL)
and mutually exclusive FL (ME-FL), and compare their performance to a
traditional centralized learning (CL) framework. Experimental results from this
study demonstrate the feasibility and potential of federated learning for
phytoplankton monitoring.
- Abstract(参考訳): 植物プランクトンモニタリングのための高性能汎用深層ニューラルネットワークの作成には、多種多様な水源からの大規模データを活用する必要がある。
このようなネットワークをトレーニングする上での大きな課題は、さまざまな施設で収集されたデータが集中的な場所に転送されることを制限する、データプライバシにある。
この課題を克服するための有望なアプローチはフェデレートドラーニング(Federated Learning)であり、ローカルデータ上でサイトレベルでトレーニングが行われ、グローバルモデルを生成するためにネットワーク上でモデルパラメータのみが交換される。
本研究では,植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングにフェデレート学習を活用する可能性を検討する。
具体的には、2つの異なるフェデレーション学習フレームワーク、フェデレーション学習(FL)と相互排他的FL(ME-FL)をシミュレートし、それらの性能を従来の集中学習(CL)フレームワークと比較する。
本研究では,植物プランクトンモニタリングにおけるフェデレート学習の可能性と可能性を示す。
関連論文リスト
- Initialisation and Network Effects in Decentralised Federated Learning [1.5961625979922607]
分散フェデレーション学習は、通信デバイスの分散ネットワーク上で、個々の機械学習モデルの協調トレーニングを可能にする。
このアプローチは、集中的な調整を避け、データのプライバシを高め、単一障害点のリスクを取り除く。
本稿では,基盤となる通信ネットワークの固有ベクトル集中度分布に基づく,ニューラルネットワークの非協調初期化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T14:24:36Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - An effective theory of collective deep learning [1.3812010983144802]
我々は、近年の分散化アルゴリズムを凝縮する最小限のモデルを導入する。
線形ネットワークの有効理論を導出し、我々のシステムの粗粒度挙動が変形したギンズバーグ・ランダウモデルと等価であることを示す。
MNISTデータセットで訓練された現実的なニューラルネットワークの結合アンサンブルで理論を検証した。
論文 参考訳(メタデータ) (2023-10-19T14:58:20Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - On the Importance and Applicability of Pre-Training for Federated
Learning [28.238484580662785]
我々は,連合学習のための事前学習を体系的に研究する。
事前学習はFLを改善するだけでなく,その精度のギャップを集中学習に埋めることもできる。
本論文は,FLに対する事前学習の効果を解明する試みとしてまとめる。
論文 参考訳(メタデータ) (2022-06-23T06:02:33Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Segmented Federated Learning for Adaptive Intrusion Detection System [0.6445605125467573]
サイバー攻撃は組織に大きな財政的利益をもたらし、評判を害する。
現在のネットワーク侵入検知システム(NIDS)は不十分なようだ。
より効率的なNIDSのためのSegmented-Federated Learning(Segmented-FL)学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-02T07:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。