論文の概要: A Multi-Level Approach for Class Imbalance Problem in Federated Learning for Remote Industry 4.0 Applications
- arxiv url: http://arxiv.org/abs/2409.15802v1
- Date: Tue, 24 Sep 2024 06:52:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 08:41:18.870728
- Title: A Multi-Level Approach for Class Imbalance Problem in Federated Learning for Remote Industry 4.0 Applications
- Title(参考訳): リモート産業向けフェデレーションラーニングにおけるクラス不均衡問題に対するマルチレベルアプローチ 4.0 アプリケーション
- Authors: Razin Farhan Hussain, Mohsen Amini Salehi,
- Abstract要約: フォグシステムを用いたディープニューラルネットワーク(DNN)モデルのトレーニングは、フェデレートラーニング(FL)技術が解決可能なセキュリティ上の問題を引き起こす。
この場合、新しい課題は、局所的なデータセットで継承され、グローバルモデルの性能を低下させることができるクラス不均衡問題である。
さらに、グローバルモデルのロバスト性を高めるために、関連するワーカーモデルを選択する効率的な手法をグローバルレベルで採用する必要がある。
- 参考スコア(独自算出の注目度): 1.7416288134936873
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep neural network (DNN) models are effective solutions for industry 4.0 applications (\eg oil spill detection, fire detection, anomaly detection). However, training a DNN network model needs a considerable amount of data collected from various sources and transferred to the central cloud server that can be expensive and sensitive to privacy. For instance, in the remote offshore oil field where network connectivity is vulnerable, a federated fog environment can be a potential computing platform. Hence it is feasible to perform computation within the federation. On the contrary, performing a DNN model training using fog systems poses a security issue that the federated learning (FL) technique can resolve. In this case, the new challenge is the class imbalance problem that can be inherited in local data sets and can degrade the performance of the global model. Therefore, FL training needs to be performed considering the class imbalance problem locally. In addition, an efficient technique to select the relevant worker model needs to be adopted at the global level to increase the robustness of the global model. Accordingly, we utilize one of the suitable loss functions addressing the class imbalance in workers at the local level. In addition, we employ a dynamic threshold mechanism with user-defined worker's weight to efficiently select workers for aggregation that improve the global model's robustness. Finally, we perform an extensive empirical evaluation to explore the benefits of our solution and find up to 3-5% performance improvement than baseline federated learning methods.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)モデルは、業界4.0アプリケーション(排ガス流出検出、火災検出、異常検出)に有効なソリューションである。
しかし、DNNネットワークモデルのトレーニングには、さまざまなソースから収集された大量のデータを必要とし、コストがかかりプライバシーに敏感な中央クラウドサーバに転送される。
例えば、ネットワーク接続が脆弱なリモートオフショア油田では、フェデレートされた霧環境が潜在的なコンピューティングプラットフォームになり得る。
したがって、フェデレーション内で計算を行うことが可能である。
それとは対照的に、フォグシステムを用いたDNNモデルトレーニングの実行は、フェデレートラーニング(FL)技術が解決可能なセキュリティ上の問題を引き起こす。
この場合、新しい課題は、局所的なデータセットで継承され、グローバルモデルの性能を低下させることができるクラス不均衡問題である。
したがって、クラス不均衡問題を局所的に考慮し、FLトレーニングを行う必要がある。
さらに、グローバルモデルのロバスト性を高めるために、関連するワーカーモデルを選択する効率的な手法をグローバルレベルで採用する必要がある。
そこで我々は,作業者のクラス不均衡に対処する適切な損失関数の1つを局所的に利用した。
さらに,ユーザ定義の作業者の重み付き動的しきい値機構を用いて,グローバルモデルのロバスト性を向上させるアグリゲーションのための作業者を効率的に選択する。
最後に、我々のソリューションの利点を探究し、ベースライン・フェデレーション学習法よりも最大3~5%の性能改善を見出すための広範な実験的な評価を行う。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Federated Learning for Misbehaviour Detection with Variational Autoencoders and Gaussian Mixture Models [0.2999888908665658]
Federated Learning (FL)は、機械学習(ML)モデルを協調的にトレーニングするための魅力的なアプローチになっている。
本研究は、車載環境における潜在的な不適切な行動を特定するための、新しい教師なしFLアプローチを提案する。
当社は、モデルアグリゲーションの目的のために、パブリッククラウドサービスのコンピューティング能力を活用しています。
論文 参考訳(メタデータ) (2024-05-16T08:49:50Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Toward efficient resource utilization at edge nodes in federated learning [0.6990493129893112]
フェデレートされた学習により、エッジノードは、データを共有することなく、グローバルモデルの構築に協力的に貢献することができる。
計算リソースの制約とネットワーク通信は、ディープラーニングアプリケーションに典型的なより大きなモデルサイズにとって、深刻なボトルネックになる可能性がある。
デバイス上での資源利用を減らすため,転送学習にインスパイアされたFL戦略を提案し,評価する。
論文 参考訳(メタデータ) (2023-09-19T07:04:50Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Federated learning with class imbalance reduction [24.044750119251308]
フェデレートラーニング(Federated Learning, FL)は、多数のエッジコンピューティングデバイスが協調してグローバルラーニングモデルをトレーニングすることを可能にする技術である。
プライバシー上の懸念から、デバイス上の生データは集中型サーバでは利用できない。
本稿では,生データを意識せずにクラス分布を明らかにするための推定手法を提案する。
論文 参考訳(メタデータ) (2020-11-23T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。