論文の概要: Asynchronous Decentralized Federated Learning for Collaborative Fault
Diagnosis of PV Stations
- arxiv url: http://arxiv.org/abs/2202.13606v1
- Date: Mon, 28 Feb 2022 08:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 05:25:36.819755
- Title: Asynchronous Decentralized Federated Learning for Collaborative Fault
Diagnosis of PV Stations
- Title(参考訳): PV局の協調的故障診断のための非同期分散フェデレーション学習
- Authors: Qi Liu (1, 2 and 3), Bo Yang (1, 2 and 3), Zhaojian Wang (1, 2 and 3),
Dafeng Zhu (1, 2 and 3), Xinyi Wang (1, 2 and 3), Kai Ma (4), Xinping Guan
(1, 2 and 3) ((1) Department of Automation, Shanghai Jiao Tong University,
Shanghai, China, (2) Key Laboratory of System Control and Information
Processing, Ministry of Education of China, Shanghai, China, (3) Shanghai
Engineering Research Center of Intelligent Control and Management, Shanghai,
China, (4) School of Electrical Engineering, Yanshan University, Qinhuangdao,
China.)
- Abstract要約: 協調的故障診断モデルを訓練するために,新しい非同期分散フェデレーションラーニング(ADFL)フレームワークを提案する。
グローバルモデルは、中央ノードの障害を避けるために分散的に集約される。
提案手法の有効性を検証するため,実験および数値シミュレーションを行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the different losses caused by various photovoltaic (PV) array faults,
accurate diagnosis of fault types is becoming increasingly important. Compared
with a single one, multiple PV stations collect sufficient fault samples, but
their data is not allowed to be shared directly due to potential conflicts of
interest. Therefore, federated learning can be exploited to train a
collaborative fault diagnosis model. However, the modeling efficiency is
seriously affected by the model update mechanism since each PV station has a
different computing capability and amount of data. Moreover, for the safe and
stable operation of the PV system, the robustness of collaborative modeling
must be guaranteed rather than simply being processed on a central server. To
address these challenges, a novel asynchronous decentralized federated learning
(ADFL) framework is proposed. Each PV station not only trains its local model
but also participates in collaborative fault diagnosis by exchanging model
parameters to improve the generalization without losing accuracy. The global
model is aggregated distributedly to avoid central node failure. By designing
the asynchronous update scheme, the communication overhead and training time
are greatly reduced. Both the experiments and numerical simulations are carried
out to verify the effectiveness of the proposed method.
- Abstract(参考訳): 様々な太陽光発電(pv)アレイの故障による損失が異なるため、故障タイプの正確な診断がますます重要になっている。
複数のPVステーションは1つに比べ、十分な故障サンプルを収集するが、関心の対立があるため、直接データを共有することはできない。
したがって、連合学習を利用して協調的障害診断モデルを訓練することができる。
しかし、各PVステーションは異なる計算能力とデータ量を有するため、モデル更新機構によりモデリング効率は深刻な影響を受ける。
さらに、PVシステムの安全かつ安定した運用には、単に中央サーバで処理されるのではなく、協調モデリングの堅牢性を保証する必要がある。
これらの課題に対処するために,新しい非同期分散連合学習(adfl)フレームワークを提案する。
各PV局は, 局所モデルだけでなく, モデルパラメータの交換による協調的故障診断にも参加し, 精度を損なうことなく一般化を改善する。
グローバルモデルは中央ノードの障害を回避するために分散的に集約される。
非同期更新方式を設計することにより、通信オーバーヘッドとトレーニング時間が大幅に削減される。
提案手法の有効性を検証するため,実験および数値シミュレーションを行った。
関連論文リスト
- Decentralized Diffusion Models [53.89995588977048]
大規模なAIモデルトレーニングでは、数千のGPU間で作業が分割され、各ステップでグラデーションが同期される。
これにより、集中型のモノリシッククラスタしかサポートできない、ネットワークの重大な負担が発生する。
独立クラスタ間で拡散モデルのトレーニングを分散するスケーラブルなフレームワークである分散拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:59:56Z) - Multivariate Physics-Informed Convolutional Autoencoder for Anomaly Detection in Power Distribution Systems with High Penetration of DERs [0.0]
本稿では,物理インフォームド・コンボリューション・オートエンコーダ(PIConvAE)モデルを提案する。
提案モデルの性能評価は,カリフォルニア州リバーサイドのIEEE 123バスシステムと実世界の給電システムを用いて行った。
論文 参考訳(メタデータ) (2024-06-05T04:28:57Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - A Distributed Computation Model Based on Federated Learning Integrates
Heterogeneous models and Consortium Blockchain for Solving Time-Varying
Problems [35.69540692050138]
本稿では,コンソーシアムブロックチェーンネットワークに基づく分散計算モデル(DCM)を提案する。
実験では,DCMの効率を検証し,提案モデルが多くの最先端モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-28T08:50:35Z) - FedRAD: Federated Robust Adaptive Distillation [7.775374800382709]
一般的にモデルの更新を集約するコラボレーション学習フレームワークは、敵のクライアントによる毒殺攻撃のモデルに対して脆弱である。
本稿では,新たなロバスト適応蒸留法 (FedRAD) を提案する。
その結果,FedRADは敵の存在や異種データ分布において,他のアグリゲータよりも優れていた。
論文 参考訳(メタデータ) (2021-12-02T16:50:57Z) - Task-agnostic Continual Learning with Hybrid Probabilistic Models [75.01205414507243]
分類のための連続学習のためのハイブリッド生成識別手法であるHCLを提案する。
フローは、データの配布を学習し、分類を行い、タスクの変更を特定し、忘れることを避けるために使用される。
本研究では,スプリット-MNIST,スプリット-CIFAR,SVHN-MNISTなどの連続学習ベンチマークにおいて,HCLの強い性能を示す。
論文 参考訳(メタデータ) (2021-06-24T05:19:26Z) - Separation of Powers in Federated Learning [5.966064140042439]
フェデレーテッド・ラーニング(FL)は、相互不信者間の協調的なトレーニングを可能にする。
最近の攻撃は、明らかに"衛生化"されたモデル更新から大量のトレーニングデータを再構築した。
我々は,信頼性の高い分散集約アーキテクチャを用いた新しいクロスサイロFLシステムであるTRUDAを紹介する。
論文 参考訳(メタデータ) (2021-05-19T21:00:44Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。