論文の概要: Federated Meta-Learning for Few-Shot Fault Diagnosis with Representation
Encoding
- arxiv url: http://arxiv.org/abs/2310.09002v1
- Date: Fri, 13 Oct 2023 10:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 13:21:49.555399
- Title: Federated Meta-Learning for Few-Shot Fault Diagnosis with Representation
Encoding
- Title(参考訳): 表現符号化によるFew-Shot故障診断のためのメタラーニング
- Authors: Jixuan Cui, Jun Li, Zhen Mei, Kang Wei, Sha Wei, Ming Ding, Wen Chen,
Song Guo
- Abstract要約: 本稿では,数発の故障診断のための表現符号化ベースフェデレーションメタラーニング(REFML)を提案する。
REFMLは、トレーニングクライアントの固有の一般化を活用して、効果的に、アウト・オブ・ディストリビューションの利点に変換する。
同じ機器の非表示作業条件でテストすると2.17%-6.50%、全く見えない機器でテストすると13.44%-18.33%の精度で精度が向上する。
- 参考スコア(独自算出の注目度): 21.76802204235636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based fault diagnosis (FD) approaches require a large amount of
training data, which are difficult to obtain since they are located across
different entities. Federated learning (FL) enables multiple clients to
collaboratively train a shared model with data privacy guaranteed. However, the
domain discrepancy and data scarcity problems among clients deteriorate the
performance of the global FL model. To tackle these issues, we propose a novel
framework called representation encoding-based federated meta-learning (REFML)
for few-shot FD. First, a novel training strategy based on representation
encoding and meta-learning is developed. It harnesses the inherent
heterogeneity among training clients, effectively transforming it into an
advantage for out-of-distribution generalization on unseen working conditions
or equipment types. Additionally, an adaptive interpolation method that
calculates the optimal combination of local and global models as the
initialization of local training is proposed. This helps to further utilize
local information to mitigate the negative effects of domain discrepancy. As a
result, high diagnostic accuracy can be achieved on unseen working conditions
or equipment types with limited training data. Compared with the
state-of-the-art methods, such as FedProx, the proposed REFML framework
achieves an increase in accuracy by 2.17%-6.50% when tested on unseen working
conditions of the same equipment type and 13.44%-18.33% when tested on totally
unseen equipment types, respectively.
- Abstract(参考訳): 深層学習に基づく障害診断(deep learning-based fault diagnosis, fd)のアプローチでは、さまざまなエンティティにまたがって配置されているため、大量のトレーニングデータが必要になる。
フェデレーション学習(fl)は、複数のクライアントがデータプライバシが保証された共有モデルを協調的にトレーニングすることを可能にする。
しかし、クライアント間のドメインの相違とデータ不足は、グローバルFLモデルの性能を悪化させた。
これらの課題に対処するために,数ショットFDのための表現符号化に基づくフェデレーションメタラーニング(REFML)という新しいフレームワークを提案する。
まず,表現エンコーディングとメタラーニングに基づく新しい学習戦略を開発した。
トレーニングクライアント間の内在的な異質性を活用し、目に見えない作業条件や機器タイプに対する分散的一般化の利点を効果的に活用する。
さらに,局所トレーニングの初期化として,局所モデルと大域モデルの最適組み合わせを計算する適応補間法を提案する。
これにより、ドメインの不一致による悪影響を軽減するために、ローカル情報をさらに活用することができる。
その結果、トレーニングデータに制限のある未確認作業条件や機器タイプに対して高い診断精度が得られる。
FedProxのような最先端の手法と比較して、提案されたREFMLフレームワークは、同じ機器の未確認作業条件でそれぞれテストすると2.17%-6.50%、全く見えない機器でテストすると13.44%-18.33%の精度を達成している。
関連論文リスト
- Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Distributionally Robust Alignment for Medical Federated Vision-Language Pre-training Under Data Heterogeneity [4.84693589377679]
医用ビジョン言語事前学習のためのFedDRA(Federated Distributionally Robust Alignment)を提案する。
FedDRAは異種条件下で頑健な視覚言語アライメントを実現する。
また,本手法は様々な医学的事前訓練法にも適している。
論文 参考訳(メタデータ) (2024-04-05T01:17:25Z) - FedIN: Federated Intermediate Layers Learning for Model Heterogeneity [7.781409257429762]
フェデレートラーニング(FL)は、エッジデバイスがローカルおよびプライベートにトレーニングデータを維持しながら、グローバルな共有モデルを協調的にトレーニングすることを促進する。
本研究では,FedIN(Federated Intermediate Layers Learning)と呼ばれるFL手法を提案する。
実験結果から, 異種モデル環境におけるFedINの性能は, 最先端のアルゴリズムと比較して優れていた。
論文 参考訳(メタデータ) (2023-04-03T07:20:43Z) - FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for
Non-IID Data in Federated Learning [4.02923738318937]
異なるエッジデバイス(クライアント)にまたがるローカルデータの不均一な分散は、フェデレート学習における遅いモデルトレーニングと精度の低下をもたらす。
この研究は、実世界のデータセット、すなわちクラスタスキューで発生する新しい非IID型を導入している。
我々は,各クライアントのインパクト要因を適応的に決定するために,深層強化学習を用いた新しいFLモデルであるFedDRLを提案する。
論文 参考訳(メタデータ) (2022-08-04T04:24:16Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - FedCAT: Towards Accurate Federated Learning via Device Concatenation [4.416919766772866]
Federated Learning(FL)は、すべてのデバイスが、ローカルデータのプライバシを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
非IIDシナリオでは、データの不均一性に起因する重みのばらつきにより、FLモデルの分類精度が大幅に低下する。
本稿では,Fed-Cat という新しいFLアプローチを導入し,提案したデバイス選択戦略とデバイス結合に基づく局所学習手法に基づいて,高精度なモデル精度を実現する。
論文 参考訳(メタデータ) (2022-02-23T10:08:43Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。