論文の概要: FeMLoc: Federated Meta-learning for Adaptive Wireless Indoor Localization Tasks in IoT Networks
- arxiv url: http://arxiv.org/abs/2405.11079v1
- Date: Fri, 17 May 2024 20:22:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 19:36:45.739674
- Title: FeMLoc: Federated Meta-learning for Adaptive Wireless Indoor Localization Tasks in IoT Networks
- Title(参考訳): FeMLoc: IoTネットワークにおける適応型ワイヤレス屋内ローカライゼーションタスクのためのフェデレーションメタラーニング
- Authors: Yaya Etiabi, Wafa Njima, El Mehdi Amhoud,
- Abstract要約: FeMLocはローカライゼーションのための統合メタラーニングフレームワークである。
FeMLocは、(i)コラボレーティブなメタトレーニングで、エッジデバイスからさまざまなローカライゼーションデータセットをトレーニングすることで、グローバルなメタモデルを生成する。
目標精度が約5mの場合、FeMLocはベースラインNNアプローチよりも82.21%高速である。
- 参考スコア(独自算出の注目度): 1.0650780147044159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of the Internet of Things fosters collaboration among connected devices for tasks like indoor localization. However, existing indoor localization solutions struggle with dynamic and harsh conditions, requiring extensive data collection and environment-specific calibration. These factors impede cooperation, scalability, and the utilization of prior research efforts. To address these challenges, we propose FeMLoc, a federated meta-learning framework for localization. FeMLoc operates in two stages: (i) collaborative meta-training where a global meta-model is created by training on diverse localization datasets from edge devices. (ii) Rapid adaptation for new environments, where the pre-trained global meta-model initializes the localization model, requiring only minimal fine-tuning with a small amount of new data. In this paper, we provide a detailed technical overview of FeMLoc, highlighting its unique approach to privacy-preserving meta-learning in the context of indoor localization. Our performance evaluation demonstrates the superiority of FeMLoc over state-of-the-art methods, enabling swift adaptation to new indoor environments with reduced calibration effort. Specifically, FeMLoc achieves up to 80.95% improvement in localization accuracy compared to the conventional baseline neural network (NN) approach after only 100 gradient steps. Alternatively, for a target accuracy of around 5m, FeMLoc achieves the same level of accuracy up to 82.21% faster than the baseline NN approach. This translates to FeMLoc requiring fewer training iterations, thereby significantly reducing fingerprint data collection and calibration efforts. Moreover, FeMLoc exhibits enhanced scalability, making it well-suited for location-aware massive connectivity driven by emerging wireless communication technologies.
- Abstract(参考訳): モノのインターネットの急速な成長は、屋内のローカライゼーションのようなタスクのためのコネクテッドデバイス間のコラボレーションを促進する。
しかし、既存の屋内ローカライゼーションソリューションは動的で厳しい条件に苦しむため、広範なデータ収集と環境固有のキャリブレーションが必要である。
これらの要因は、先行研究の協力、拡張性、利用を妨げている。
これらの課題に対処するため、我々は、ローカライゼーションのためのフェデレーションされたメタラーニングフレームワークFeMLocを提案する。
FeMLOCは2つの段階に分かれている。
(i) エッジデバイスからの多様なローカライゼーションデータセットをトレーニングすることで,グローバルメタモデルを作成する共同メタトレーニング。
(II) 事前学習したグローバルメタモデルがローカライズモデルを初期化し, 少量の新しいデータで最小限の微調整しか必要としない新しい環境への迅速な適応。
本稿では、FeMLocの技術的な概要を詳述し、屋内ローカライゼーションの文脈におけるプライバシー保護メタラーニングのユニークなアプローチを強調した。
性能評価では,FeMLOCが最先端手法よりも優れていることが示され,キャリブレーションの少ない室内環境への迅速な適応が可能となった。
特に、FeMLocは100段階の勾配の後、従来のベースラインニューラルネットワーク(NN)アプローチと比較して、最大80.95%のローカライゼーション精度の向上を実現している。
あるいは、目標精度が約5mの場合、FeMLocはベースラインNNアプローチよりも82.21%高速である。
これにより、FeMLOCはトレーニングイテレーションを減らし、指紋データ収集とキャリブレーションの労力を大幅に削減できる。
さらに、FeMLocは拡張スケーラビリティを示し、新しい無線通信技術によって駆動される位置対応の大規模接続に適している。
関連論文リスト
- NTK-DFL: Enhancing Decentralized Federated Learning in Heterogeneous Settings via Neural Tangent Kernel [27.92271597111756]
Decentralized Federated Learning (DFL) は、中央サーバや生のデータ交換なしで参加者間でモデルをトレーニングするための、協調的な機械学習フレームワークである。
近年の研究では、集中型フレームワークにおけるフェデレーション学習に適用されたニューラルタンジェントカーネル(NTK)アプローチが、パフォーマンスの向上につながることが示されている。
本稿では,NTKベースの進化とモデル平均化の相乗効果を導入しながら,分散環境でクライアントモデルを訓練するためにNTKを活用するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-02T18:19:28Z) - Ferret: Federated Full-Parameter Tuning at Scale for Large Language Models [54.02863371927658]
大規模言語モデル(LLM)は多くの現実世界のアプリケーションで必須となっている。
フェレットは、ランダム性を共有する最初の一階法である。
高い計算効率、通信オーバーヘッドの低減、高速収束を実現している。
論文 参考訳(メタデータ) (2024-09-10T07:28:13Z) - Meta-FL: A Novel Meta-Learning Framework for Optimizing Heterogeneous Model Aggregation in Federated Learning [2.28438857884398]
フェデレートラーニング(FL)は、多様なエンティティをまたいだ協調モデルトレーニングを可能にする。
FLはデータの不均一性やモデルの多様性といった課題に直面している。
Meta-Federated Learningフレームワークはこれらの課題に取り組むために導入された。
論文 参考訳(メタデータ) (2024-06-23T06:57:07Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Federated Meta-Learning for Few-Shot Fault Diagnosis with Representation
Encoding [21.76802204235636]
本稿では,数発の故障診断のための表現符号化ベースフェデレーションメタラーニング(REFML)を提案する。
REFMLは、トレーニングクライアントの固有の一般化を活用して、効果的に、アウト・オブ・ディストリビューションの利点に変換する。
同じ機器の非表示作業条件でテストすると2.17%-6.50%、全く見えない機器でテストすると13.44%-18.33%の精度で精度が向上する。
論文 参考訳(メタデータ) (2023-10-13T10:48:28Z) - A Meta-learning based Generalizable Indoor Localization Model using
Channel State Information [8.302375673936387]
本稿では,データセットが制限された場合の一般化性の向上を目的としたメタ学習アルゴリズムTB-MAMLを提案する。
TB-MAMLに基づくローカライゼーションモデルと,他のメタ学習アルゴリズムを用いたローカライゼーションの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-22T19:54:59Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Fed-LAMB: Layerwise and Dimensionwise Locally Adaptive Optimization
Algorithm [24.42828071396353]
FL(Federated Learning)の新たなパラダイムでは、モバイルデバイスなどの大量のクライアントが、それぞれのデータに基づいてトレーニングされている。
低帯域幅のため、分散最適化手法は計算負荷をそれらのクライアントからサーバにシフトさせる必要がある。
我々は階層的なディープニューラルネットワークに基づく新しい学習手法であるFed-LAMBを提案する。
論文 参考訳(メタデータ) (2021-10-01T16:54:31Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。