論文の概要: SAFELOC: Overcoming Data Poisoning Attacks in Heterogeneous Federated Machine Learning for Indoor Localization
- arxiv url: http://arxiv.org/abs/2411.09055v1
- Date: Wed, 13 Nov 2024 22:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:25:27.040484
- Title: SAFELOC: Overcoming Data Poisoning Attacks in Heterogeneous Federated Machine Learning for Indoor Localization
- Title(参考訳): SAFELOC: 屋内ローカライゼーションのための不均一なフェデレーション機械学習におけるデータポジショニング攻撃の克服
- Authors: Akhil Singampalli, Danish Gufran, Sudeep Pasricha,
- Abstract要約: 機械学習(ML)ベースの屋内ローカライゼーションソリューションは多くの新興アプリケーションにとって重要である。
彼らの効果は、モバイルデバイス間のハードウェア/ソフトウェアの違いと、MLデータ中毒攻撃の脅威によってしばしば損なわれる。
SAFELOCは,これらの困難な条件下での局所化誤差を最小限に抑えるだけでなく,効率的なモバイルデバイス配置のためのモデルコンパクト性を確保する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 2.9699290794642366
- License:
- Abstract: Machine learning (ML) based indoor localization solutions are critical for many emerging applications, yet their efficacy is often compromised by hardware/software variations across mobile devices (i.e., device heterogeneity) and the threat of ML data poisoning attacks. Conventional methods aimed at countering these challenges show limited resilience to the uncertainties created by these phenomena. In response, in this paper, we introduce SAFELOC, a novel framework that not only minimizes localization errors under these challenging conditions but also ensures model compactness for efficient mobile device deployment. Our framework targets a distributed and co-operative learning environment that uses federated learning (FL) to preserve user data privacy and assumes heterogeneous mobile devices carried by users (just like in most real-world scenarios). Within this heterogeneous FL context, SAFELOC introduces a novel fused neural network architecture that performs data poisoning detection and localization, with a low model footprint. Additionally, a dynamic saliency map-based aggregation strategy is designed to adapt based on the severity of the detected data poisoning scenario. Experimental evaluations demonstrate that SAFELOC achieves improvements of up to 5.9x in mean localization error, 7.8x in worst-case localization error, and a 2.1x reduction in model inference latency compared to state-of-the-art indoor localization frameworks, across diverse building floorplans, mobile devices, and ML data poisoning attack scenarios.
- Abstract(参考訳): 機械学習(ML)ベースの屋内ローカライゼーションソリューションは多くの新興アプリケーションにとって重要であるが、その有効性はモバイルデバイス間のハードウェア/ソフトウェアの違い(デバイスの不均一性)とMLデータ中毒攻撃の脅威によってしばしば損なわれる。
これらの課題に対処するための従来の手法は、これらの現象によって生じる不確実性に対して、限られたレジリエンスを示す。
そこで本研究では,これらの問題条件下での局所化誤差を最小限に抑えるとともに,効率的なモバイルデバイス配置のためのモデルコンパクト性を確保する新しいフレームワークであるSAFELOCを紹介する。
本フレームワークは,ユーザデータのプライバシを保護し,ユーザによる異質なモバイルデバイスを前提として,フェデレーション学習(FL)を用いた分散協調学習環境を対象としている。
この異種FLコンテキストの中で、SAFELOCは、データ中毒の検出とローカライゼーションを行う新しい融合ニューラルネットワークアーキテクチャを導入し、モデルフットプリントを低くする。
さらに、検出されたデータ中毒シナリオの深刻度に基づいて、動的サリエンシマップに基づくアグリゲーション戦略が適応するように設計されている。
実験により、SAFELOCは平均ローカライゼーションエラーの5.9倍、最悪のローカライゼーションエラーの7.8倍、モデル推論遅延の2.1倍の改善を実現していることが示された。
関連論文リスト
- SENTINEL: Securing Indoor Localization against Adversarial Attacks with Capsule Neural Networks [2.7186493234782527]
SENTINELは、屋内のローカライゼーションソリューションの敵攻撃に対するレジリエンスを高めるための、新しい組込み機械学習フレームワークである。
RSSRogueLocも導入しています。これは実世界の屋内環境からローグAPの効果を計測するデータセットです。
論文 参考訳(メタデータ) (2024-07-14T21:40:12Z) - Recovering Labels from Local Updates in Federated Learning [14.866327821524854]
グラディエント(GI)攻撃は、連邦学習(FL)におけるクライアントのプライバシーを脅かす
ローカル更新(RLU)からラベルを回収する新しいラベルリカバリ方式を提案する。
RLUは、FLシステムが複数のローカルエポックをヘテロジニアスなデータでトレーニングする現実的な実環境でも高い性能を達成する。
論文 参考訳(メタデータ) (2024-05-02T02:33:15Z) - FedMID: A Data-Free Method for Using Intermediate Outputs as a Defense Mechanism Against Poisoning Attacks in Federated Learning [17.796469530291954]
フェデレーション学習は、クライアントからのローカルアップデートを組み合わせてグローバルモデルを生成する。
本稿では,中間出力に基づく局所モデルの関数的マッピングを用いて,フェデレート学習における中毒攻撃の防御を行う新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-18T05:10:05Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - CALLOC: Curriculum Adversarial Learning for Secure and Robust Indoor
Localization [3.943289808718775]
CALLOC(CALLOC)は,屋内環境やデバイスにまたがる敵の攻撃や変動に抵抗するように設計された,新しいフレームワークである。
CALLOCは、ドメイン固有の軽量なスケールドドット製品アテンションニューラルネットワークを備えた、適応的なカリキュラム学習アプローチを採用している。
CALLOCは、最先端の屋内ローカライゼーションフレームワークに対して、平均エラーが6.03倍、最悪のエラーが4.6倍まで改善可能であることを示す。
論文 参考訳(メタデータ) (2023-11-10T19:26:31Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FedHIL: Heterogeneity Resilient Federated Learning for Robust Indoor
Localization with Mobile Devices [4.226118870861363]
緊急対応、倉庫管理、拡張現実体験などの応用において、屋内のローカライゼーションは重要な役割を担っている。
デバイス・ヘテロジニアス環境における屋内位置推定精度を向上させるために,FedHILと呼ばれる新しい組込み機械学習フレームワークを提案する。
本フレームワークは,屋内の局所化とフェデレート学習(FL)を組み合わせることで,デバイス・異種環境における屋内の局所化精度を向上させる。
論文 参考訳(メタデータ) (2023-07-04T15:34:13Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。