論文の概要: FedBChain: A Blockchain-enabled Federated Learning Framework for Improving DeepConvLSTM with Comparative Strategy Insights
- arxiv url: http://arxiv.org/abs/2407.21282v1
- Date: Wed, 31 Jul 2024 02:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 12:56:56.785579
- Title: FedBChain: A Blockchain-enabled Federated Learning Framework for Improving DeepConvLSTM with Comparative Strategy Insights
- Title(参考訳): FedBChain - DeepConvLSTMを改善するブロックチェーン対応のフェデレート学習フレームワーク
- Authors: Gaoxuan Li, Chern Hong Lim, Qiyao Ma, Xinyu Tang, Hwa Hui Tew,
- Abstract要約: このフレームワークは,修正されたDeepConvLSTMアーキテクチャに基づいて,単一のLSTM層にフェデレート学習パラダイムを統合する。
このフレームワークは、3つの異なる実世界のデータセットで予測性能の比較テストを実行する。
- 参考スコア(独自算出の注目度): 3.3234801623263257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research in the field of Human Activity Recognition has shown that an improvement in prediction performance can be achieved by reducing the number of LSTM layers. However, this kind of enhancement is only significant on monolithic architectures, and when it runs on large-scale distributed training, data security and privacy issues will be reconsidered, and its prediction performance is unknown. In this paper, we introduce a novel framework: FedBChain, which integrates the federated learning paradigm based on a modified DeepConvLSTM architecture with a single LSTM layer. This framework performs comparative tests of prediction performance on three different real-world datasets based on three different hidden layer units (128, 256, and 512) combined with five different federated learning strategies, respectively. The results show that our architecture has significant improvements in Precision, Recall and F1-score compared to the centralized training approach on all datasets with all hidden layer units for all strategies: FedAvg strategy improves on average by 4.54%, FedProx improves on average by 4.57%, FedTrimmedAvg improves on average by 4.35%, Krum improves by 4.18% on average, and FedAvgM improves by 4.46% on average. Based on our results, it can be seen that FedBChain not only improves in performance, but also guarantees the security and privacy of user data compared to centralized training methods during the training process. The code for our experiments is publicly available (https://github.com/Glen909/FedBChain).
- Abstract(参考訳): 近年の人間行動認識の分野では,LSTM層数を減らすことにより,予測性能の向上が図られている。
しかし、この種の拡張はモノリシックなアーキテクチャにおいてのみ重要であり、大規模な分散トレーニングを実行すると、データセキュリティとプライバシの問題を再考し、その予測性能が不明になる。
本稿では,修正されたDeepConvLSTMアーキテクチャに基づくフェデレート学習パラダイムを単一のLSTM層に統合した新しいフレームワークであるFedBChainを紹介する。
本フレームワークは,3つの隠れレイヤユニット(128,256,512)と5つの異なるフェデレート学習戦略を組み合わせた実世界の3つのデータセットに対する予測性能の比較試験を行う。
FedAvg戦略は平均4.54%改善し、FedProxは平均4.57%改善し、FedTrimmedAvgは平均4.35%改善し、Krumは平均4.18%改善し、FedAvgMは平均4.46%改善した。
この結果から、FedBChainはパフォーマンスの向上だけでなく、トレーニングプロセス中の集中的なトレーニング方法と比較して、ユーザデータのセキュリティとプライバシも保証していることがわかる。
私たちの実験のコードは公開されています(https://github.com/Glen909/FedBChain)。
関連論文リスト
- HERL: Tiered Federated Learning with Adaptive Homomorphic Encryption using Reinforcement Learning [12.628921853388862]
HERLは強化学習に基づくアプローチで、Q-Learningを使って動的に暗号化パラメータを最適化する。
提案手法は,選択したクラスタリングアプローチに従って,クライアントのファーストプロファイリングと階層化を行う。
その結果,HERLは実用性17%向上し,収束時間を最大24%削減し,効率を最大30%向上し,セキュリティ損失を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-09-11T21:26:23Z) - Leveraging Function Space Aggregation for Federated Learning at Scale [20.866482460590973]
クライアントが学習した関数に対する局所近似を集約するアルゴリズムであるFedFishを提案する。
我々はFedFishを、現実的で大規模なクロスデバイスベンチマークで評価する。
論文 参考訳(メタデータ) (2023-11-17T02:37:10Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - LOT: Layer-wise Orthogonal Training on Improving $\ell_2$ Certified
Robustness [14.206377940235091]
近年の研究では、リプシッツ制約によるディープニューラルネットワーク(DNN)のトレーニングは、対向的ロバスト性や安定性などのモデル特性を高めることができることが示されている。
本研究では,1-Lipschitz畳み込み層を効果的に学習するための層ワイド直交訓練法(LOT)を提案する。
LOTは、決定論的l2証明されたロバスト性に関して、ベースラインを著しく上回り、より深いニューラルネットワークにスケールすることを示す。
論文 参考訳(メタデータ) (2022-10-20T22:31:26Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Improving Deep Learning for HAR with shallow LSTMs [70.94062293989832]
本稿では,DeepConvLSTMを2層LSTMではなく1層LSTMに変更することを提案する。
この結果は、シーケンシャルデータを扱う場合、少なくとも2層LSTMが必要であるという信念とは対照的である。
論文 参考訳(メタデータ) (2021-08-02T08:14:59Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - FedGroup: Efficient Clustered Federated Learning via Decomposed
Data-Driven Measure [18.083188787905083]
本稿では,新しいクラスタ型フェデレーション学習(CFL)フレームワークであるFedGroupを提案する。
FEMNISTではFedAvgに比べて絶対テスト精度が+14.1%向上することが示された。
また、いくつかのオープンデータセット上でFedGroupとFedGrouProx(FedProxと組み合わせた)を評価します。
論文 参考訳(メタデータ) (2020-10-14T08:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。