論文の概要: Towards Fleet-wide Sharing of Wind Turbine Condition Information through
Privacy-preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2212.03529v1
- Date: Wed, 7 Dec 2022 09:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 17:09:42.118304
- Title: Towards Fleet-wide Sharing of Wind Turbine Condition Information through
Privacy-preserving Federated Learning
- Title(参考訳): プライバシ保護フェデレーション学習による風車条件情報のフリートワイド共有に向けて
- Authors: Lorin Jenkel, Stefan Jonas, Angela Meyer
- Abstract要約: テラバイトのデータは、風力タービンメーカーが毎日収集している。
製造業者は、ビジネス戦略上の理由から、艦隊のタービンデータのプライバシーを好む。
風力タービンにデータを残してデータプライバシを保存する分散フェデレーション機械学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Terabytes of data are collected every day by wind turbine manufacturers from
their fleets. The data contain valuable real-time information for turbine
health diagnostics and performance monitoring, for predicting rare failures and
the remaining service life of critical parts. And yet, this wealth of data from
wind turbine fleets remains inaccessible to operators, utility companies, and
researchers as manufacturing companies prefer the privacy of their fleets'
turbine data for business strategic reasons. The lack of data access impedes
the exploitation of opportunities, such as improving data-driven turbine
operation and maintenance strategies and reducing downtimes. We present a
distributed federated machine learning approach that leaves the data on the
wind turbines to preserve the data privacy, as desired by manufacturers, while
still enabling fleet-wide learning on those local data. We demonstrate in a
case study that wind turbines which are scarce in representative training data
benefit from more accurate fault detection models with federated learning,
while no turbine experiences a loss in model performance by participating in
the federated learning process. When comparing conventional and federated
training processes, the average model training time rises significantly by a
factor of 7 in the federated training due to increased communication and
overhead operations. Thus, model training times might constitute an impediment
that needs to be further explored and alleviated in federated learning
applications, especially for large wind turbine fleets.
- Abstract(参考訳): テラバイトのデータは、風力タービンメーカーが艦隊から毎日収集している。
データにはタービンの健康診断や性能モニタリングのための貴重なリアルタイム情報が含まれており、まれな故障や重要な部品の残りのサービス寿命を予測する。
しかし、風力タービンの艦隊から得られた豊富なデータは、製造会社がビジネス上の戦略的理由からタービンデータのプライバシーを優先しているため、オペレーター、ユーティリティ企業、研究者にはアクセスできないままです。
データアクセスの欠如は、データ駆動型タービンの運用とメンテナンス戦略の改善、ダウンタイムの削減といった機会の活用を妨げる。
本稿では,風力タービンにデータを残して,製造業者が望むようなデータのプライバシを保ちながら,そのローカルデータに対するフリートワイドな学習を可能にする分散フェデレーション機械学習手法を提案する。
本研究では, 汎用訓練データに乏しい風力タービンが, フェデレート学習を伴うより正確な故障検出モデルから恩恵を受ける一方で, フェデレーション学習プロセスに参加することでモデル性能を損なうタービンは存在しないことを示す。
従来のトレーニングプロセスとフェデレーショントレーニングプロセスを比較すると,コミュニケーションやオーバヘッド操作の増加により,フェデレーショントレーニングにおける平均モデルトレーニング時間は7倍に向上する。
したがって、モデル訓練時間は、特に大型の風力タービン車両において、連合学習アプリケーションにおいてさらに探求され、緩和される必要がある障害を構成する可能性がある。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Wind turbine condition monitoring based on intra- and inter-farm federated learning [0.0]
風力エネルギーにおける多くのAI応用は、個々の風力タービンだけでなく、複数のタービンや複数の風力発電所の運用データを使用することで恩恵を受けることができる。
フェデレーテッド・ラーニングは、この文脈で、プライバシを保存する分散機械学習のアプローチとして登場した。
我々は、異なる風力発電所とタービンモデル間の協調や、同じ風力発電所とタービンモデルに制限された協力など、様々な連合学習戦略について検討する。
論文 参考訳(メタデータ) (2024-09-05T16:25:30Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedDistill: Global Model Distillation for Local Model De-Biasing in Non-IID Federated Learning [10.641875933652647]
フェデレートラーニング(FL)は、協調機械学習を可能にする新しいアプローチである。
FLは、クライアント間で均一に分散されていない(非ID)データのために、課題に直面します。
本稿では,グローバルモデルからローカルモデルへの知識伝達を促進するフレームワークであるFedDistillを紹介する。
論文 参考訳(メタデータ) (2024-04-14T10:23:30Z) - Transfer learning applications for anomaly detection in wind turbines [0.0]
風力タービンの異常検出は通常、異常を早期に検出するために通常の挙動モデルを使用する。
本研究では, 自動エンコーダによる異常検出において, 橋渡し学習をいかに応用できるかを検討する。
論文 参考訳(メタデータ) (2024-04-03T18:48:45Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - DFRD: Data-Free Robustness Distillation for Heterogeneous Federated
Learning [20.135235291912185]
Federated Learning(FL)は、プライバシに制約のある分散機械学習パラダイムである。
本研究では,データヘテロジニアスおよびモデルヘテロジニアスFLシナリオにおいて,ロバストなグローバルモデルを学習するための新しいFL法(DFRD)を提案する。
論文 参考訳(メタデータ) (2023-09-24T04:29:22Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Preservation of the Global Knowledge by Not-True Self Knowledge
Distillation in Federated Learning [8.474470736998136]
フェデレートラーニング(FL)では、強力なグローバルモデルが、クライアントのローカルにトレーニングされたモデルを集約することによって、協調的に学習される。
偏りのある地域分布への適応は、その特徴をグローバルな分布にシフトさせ、グローバルな知識を忘れる結果をもたらすことを観察する。
本稿では, ローカルデータに対するグローバルな知識を活用した, 簡便かつ効果的なフェデレートローカル自己蒸留(FedLSD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T11:51:47Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。