論文の概要: Fed-Meta-Align: A Similarity-Aware Aggregation and Personalization Pipeline for Federated TinyML on Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2508.11794v1
- Date: Fri, 15 Aug 2025 20:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.376073
- Title: Fed-Meta-Align: A Similarity-Aware Aggregation and Personalization Pipeline for Federated TinyML on Heterogeneous Data
- Title(参考訳): Fed-Meta-Align: 異種データに基づくFederated TinyMLの類似性認識集約とパーソナライズパイプライン
- Authors: Hemanth Macharla, Mayukha Pal,
- Abstract要約: 資源制約されたモノのインターネット(IoT)デバイスにおけるリアルタイム障害分類は、産業安全にとって重要である。
標準フェデレーションラーニング(FL)は、非IIDデータの存在下でしばしば失敗し、モデルのばらつきにつながる。
本稿では,これらの制約を克服するための新しい4段階フレームワークであるFed-Meta-Alignを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time fault classification in resource-constrained Internet of Things (IoT) devices is critical for industrial safety, yet training robust models in such heterogeneous environments remains a significant challenge. Standard Federated Learning (FL) often fails in the presence of non-IID data, leading to model divergence. This paper introduces Fed-Meta-Align, a novel four-phase framework designed to overcome these limitations through a sophisticated initialization and training pipeline. Our process begins by training a foundational model on a general public dataset to establish a competent starting point. This model then undergoes a serial meta-initialization phase, where it sequentially trains on a subset of IOT Device data to learn a heterogeneity-aware initialization that is already situated in a favorable region of the loss landscape. This informed model is subsequently refined in a parallel FL phase, which utilizes a dual-criterion aggregation mechanism that weights for IOT devices updates based on both local performance and cosine similarity alignment. Finally, an on-device personalization phase adapts the converged global model into a specialized expert for each IOT Device. Comprehensive experiments demonstrate that Fed-Meta-Align achieves an average test accuracy of 91.27% across heterogeneous IOT devices, outperforming personalized FedAvg and FedProx by up to 3.87% and 3.37% on electrical and mechanical fault datasets, respectively. This multi-stage approach of sequenced initialization and adaptive aggregation provides a robust pathway for deploying high-performance intelligence on diverse TinyML networks.
- Abstract(参考訳): 資源制約されたモノのインターネット(IoT)デバイスにおけるリアルタイム障害分類は、産業的安全にとって重要であるが、そのような異種環境で堅牢なモデルをトレーニングすることは、依然として大きな課題である。
標準フェデレーションラーニング(FL)は、非IIDデータの存在下でしばしば失敗し、モデルのばらつきにつながる。
本稿では,これらの制約を克服する新しい4相フレームワークであるFed-Meta-Alignを紹介する。
私たちのプロセスは、一般的な公開データセット上で基礎モデルをトレーニングして、有能な出発点を確立することから始まります。
このモデルでは、連続的なメタ初期化フェーズを実行し、IOTデバイスデータのサブセットを逐次トレーニングして、ロスランドスケープの好適な領域にある不均一性を考慮した初期化を学習する。
このインフォメーションモデルは、その後並列FLフェーズで洗練され、局所的な性能とコサイン類似性アライメントの両方に基づいてIOTデバイスの重みを更新するデュアルクレーターアグリゲーション機構を利用する。
最後に、デバイス上のパーソナライズフェーズは、収束したグローバルモデルを各IOTデバイスの専門家に適応させる。
総合的な実験により、Fed-Meta-Alignは不均一IOTデバイスで平均91.27%のテスト精度を達成し、それぞれ電気的および機械的故障データセットにおいて、パーソナライズされたFedAvgとFedProxを最大3.87%、そして3.37%で上回った。
シーケンス初期化とアダプティブアグリゲーションのマルチステージアプローチは、さまざまなTinyMLネットワークに高性能インテリジェンスをデプロイするための堅牢な経路を提供する。
関連論文リスト
- Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - FedP3E: Privacy-Preserving Prototype Exchange for Non-IID IoT Malware Detection in Cross-Silo Federated Learning [5.7494612007431805]
データプライバシを維持しつつ、間接的なクライアント間表現共有をサポートする新しいFLフレームワークであるFedP3Eを提案する。
我々は,N-BaIoTデータセット上のFedP3Eを,データ不均衡の程度が異なる現実的なクロスサイロシナリオ下で評価した。
論文 参考訳(メタデータ) (2025-07-09T20:07:35Z) - Performance Analysis of Decentralized Federated Learning Deployments [1.7249361224827533]
これらの課題に対処するために、分散フェデレートラーニング(DFL)が導入されている。
中央サーバに頼ることなく、参加するデバイス間の直接的なコラボレーションを促進する。
本研究は、DFLモデルの収束と一般化能力に影響を与える決定的な要因について考察する。
論文 参考訳(メタデータ) (2025-03-14T19:37:13Z) - Efficient Federated Intrusion Detection in 5G ecosystem using optimized BERT-based model [0.7100520098029439]
5Gは高度なサービスを提供し、IoT(Internet of Things)内のインテリジェントトランスポート、コネクテッドヘルスケア、スマートシティなどのアプリケーションをサポートする。
これらの進歩は、ますます高度なサイバー攻撃を伴う、重大なセキュリティ上の課題をもたらす。
本稿では,連合学習と大規模言語モデル(LLM)を用いた頑健な侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:56:28Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - FedEntropy: Efficient Device Grouping for Federated Learning Using
Maximum Entropy Judgment [10.507028041279048]
Federated Learning(FL)は、有望な分散機械学習パラダイムとして、着実に注目を集めている。
FLは本質的に、非IIDシナリオでは分類精度が低い。
本稿では,FedEntropy という新しい動的デバイスグループ化方式を用いた実効FL法を提案する。
論文 参考訳(メタデータ) (2022-05-24T12:45:17Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Gradual Federated Learning with Simulated Annealing [26.956032164461377]
フェデレート平均化(FedAvg)は、ローカルモデルを平均化してグローバルモデルを更新する一般的なフェデレーション学習(FL)技術である。
本稿では,シミュレーションアニーリングに基づく新しいFL法を提案する。
本稿では,従来のFedAvg法よりも収束速度と分類精度が優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T11:57:56Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。