論文の概要: Towards Fleet-wide Sharing of Wind Turbine Condition Information through
Privacy-preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2212.03529v3
- Date: Wed, 12 Jul 2023 13:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 20:06:47.056037
- Title: Towards Fleet-wide Sharing of Wind Turbine Condition Information through
Privacy-preserving Federated Learning
- Title(参考訳): プライバシ保護フェデレーション学習による風車条件情報のフリートワイド共有に向けて
- Authors: Lorin Jenkel, Stefan Jonas, Angela Meyer
- Abstract要約: 我々は、風力タービンにデータを残しながら、そのローカルデータに対するフリートワイドな学習を可能にすることによって、データのプライバシを保護する分散機械学習アプローチを提案する。
フェデレートされた艦隊規模の学習を通して、代表的トレーニングデータをほとんど、あるいは全く持たないタービンは、より正確な正常な行動モデルから恩恵を受けることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Terabytes of data are collected by wind turbine manufacturers from their
fleets every day. And yet, a lack of data access and sharing impedes exploiting
the full potential of the data. We present a distributed machine learning
approach that preserves the data privacy by leaving the data on the wind
turbines while still enabling fleet-wide learning on those local data. We show
that through federated fleet-wide learning, turbines with little or no
representative training data can benefit from more accurate normal behavior
models. Customizing the global federated model to individual turbines yields
the highest fault detection accuracy in cases where the monitored target
variable is distributed heterogeneously across the fleet. We demonstrate this
for bearing temperatures, a target variable whose normal behavior can vary
widely depending on the turbine. We show that no turbine experiences a loss in
model performance from participating in the federated learning process,
resulting in superior performance of the federated learning strategy in our
case studies. The distributed learning increases the normal behavior model
training times by about a factor of ten due to increased communication overhead
and slower model convergence.
- Abstract(参考訳): テラバイトのデータは、風力タービンメーカーが毎日艦隊から収集する。
しかし、データアクセスと共有の欠如は、データの潜在能力を最大限に活用することを妨げる。
我々は、風力タービンにデータを残しながら、そのローカルデータに対する艦隊規模の学習を可能にする分散機械学習アプローチを提案する。
フェデレートされた艦隊規模の学習を通して、代表的トレーニングデータをほとんど、あるいは全く持たないタービンは、より正確な正常な行動モデルから恩恵を受けることを示す。
グローバルフェデレーションモデルを個々のタービンにカスタマイズすると、監視対象変数が不均一に艦隊に分散している場合に最も高い故障検出精度が得られる。
本実験では, 軸受温度について, 通常の挙動がタービンによって大きく変化する対象変数について示す。
本研究は,連合学習プロセスに参加することでモデル性能を損なうタービンが存在しないことを示し,その結果,連合学習戦略の優れた性能が得られることを示した。
分散学習は,通信オーバーヘッドの増加とモデル収束の遅さにより,通常の行動モデルトレーニング時間を約10倍に向上させる。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Wind turbine condition monitoring based on intra- and inter-farm federated learning [0.0]
風力エネルギーにおける多くのAI応用は、個々の風力タービンだけでなく、複数のタービンや複数の風力発電所の運用データを使用することで恩恵を受けることができる。
フェデレーテッド・ラーニングは、この文脈で、プライバシを保存する分散機械学習のアプローチとして登場した。
我々は、異なる風力発電所とタービンモデル間の協調や、同じ風力発電所とタービンモデルに制限された協力など、様々な連合学習戦略について検討する。
論文 参考訳(メタデータ) (2024-09-05T16:25:30Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedDistill: Global Model Distillation for Local Model De-Biasing in Non-IID Federated Learning [10.641875933652647]
フェデレートラーニング(FL)は、協調機械学習を可能にする新しいアプローチである。
FLは、クライアント間で均一に分散されていない(非ID)データのために、課題に直面します。
本稿では,グローバルモデルからローカルモデルへの知識伝達を促進するフレームワークであるFedDistillを紹介する。
論文 参考訳(メタデータ) (2024-04-14T10:23:30Z) - Transfer learning applications for anomaly detection in wind turbines [0.0]
風力タービンの異常検出は通常、異常を早期に検出するために通常の挙動モデルを使用する。
本研究では, 自動エンコーダによる異常検出において, 橋渡し学習をいかに応用できるかを検討する。
論文 参考訳(メタデータ) (2024-04-03T18:48:45Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - DFRD: Data-Free Robustness Distillation for Heterogeneous Federated
Learning [20.135235291912185]
Federated Learning(FL)は、プライバシに制約のある分散機械学習パラダイムである。
本研究では,データヘテロジニアスおよびモデルヘテロジニアスFLシナリオにおいて,ロバストなグローバルモデルを学習するための新しいFL法(DFRD)を提案する。
論文 参考訳(メタデータ) (2023-09-24T04:29:22Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Preservation of the Global Knowledge by Not-True Self Knowledge
Distillation in Federated Learning [8.474470736998136]
フェデレートラーニング(FL)では、強力なグローバルモデルが、クライアントのローカルにトレーニングされたモデルを集約することによって、協調的に学習される。
偏りのある地域分布への適応は、その特徴をグローバルな分布にシフトさせ、グローバルな知識を忘れる結果をもたらすことを観察する。
本稿では, ローカルデータに対するグローバルな知識を活用した, 簡便かつ効果的なフェデレートローカル自己蒸留(FedLSD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T11:51:47Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。