論文の概要: A Privacy-Preserving Indoor Localization System based on Hierarchical Federated Learning
- arxiv url: http://arxiv.org/abs/2507.01581v1
- Date: Wed, 02 Jul 2025 10:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.154835
- Title: A Privacy-Preserving Indoor Localization System based on Hierarchical Federated Learning
- Title(参考訳): 階層型フェデレーション学習に基づくプライバシ保護型屋内ローカライゼーションシステム
- Authors: Masood Jan, Wafa Njima, Xun Zhang,
- Abstract要約: 伝統的な屋内ローカライゼーション技術は重大なエラーを発生させ、プライバシーの懸念を提起する。
DNNモデルを用いた動的屋内局所化のためのフェデレートラーニング(FL)に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.0783171053797578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Location information serves as the fundamental element for numerous Internet of Things (IoT) applications. Traditional indoor localization techniques often produce significant errors and raise privacy concerns due to centralized data collection. In response, Machine Learning (ML) techniques offer promising solutions by capturing indoor environment variations. However, they typically require central data aggregation, leading to privacy, bandwidth, and server reliability issues. To overcome these challenges, in this paper, we propose a Federated Learning (FL)-based approach for dynamic indoor localization using a Deep Neural Network (DNN) model. Experimental results show that FL has the nearby performance to Centralized Model (CL) while keeping the data privacy, bandwidth efficiency and server reliability. This research demonstrates that our proposed FL approach provides a viable solution for privacy-enhanced indoor localization, paving the way for advancements in secure and efficient indoor localization systems.
- Abstract(参考訳): 位置情報は、多くのモノのインターネット(IoT)アプリケーションの基本要素として機能する。
従来の屋内ローカライゼーション技術は、しばしば重大なエラーを発生させ、集中データ収集によるプライバシー上の懸念を引き起こす。
これに応えて、機械学習(ML)技術は、屋内環境のバリエーションをキャプチャすることで、有望なソリューションを提供する。
しかし、それらは一般的に中央データアグリゲーションを必要とし、プライバシー、帯域幅、サーバの信頼性の問題につながる。
本稿では,これらの課題を克服するために,Deep Neural Network (DNN) モデルを用いた動的屋内ローカライゼーションのためのフェデレートラーニング(FL)に基づくアプローチを提案する。
実験の結果,FLはデータプライバシ,帯域幅効率,サーバの信頼性を保ちながら,中央モデル(CL)に近い性能を示した。
本研究は,提案するFLアプローチが,セキュアで効率的な屋内位置決めシステムの進歩の道を開くことにより,プライバシ強化屋内位置決めの有効なソリューションを提供することを示す。
関連論文リスト
- A Federated Random Forest Solution for Secure Distributed Machine Learning [44.99833362998488]
本稿では,データプライバシを保護し,分散環境での堅牢な性能を提供するランダムフォレスト分類器のためのフェデレート学習フレームワークを提案する。
PySyftをセキュアでプライバシを意識した計算に活用することにより、複数の機関がローカルに保存されたデータ上でランダムフォレストモデルを協調的にトレーニングすることが可能となる。
2つの実世界の医療ベンチマークの実験は、フェデレートされたアプローチが、集中型のメソッドの最大9%のマージンで、競争の正確性を維持していることを示している。
論文 参考訳(メタデータ) (2025-05-12T21:40:35Z) - A Trustworthy AIoT-enabled Localization System via Federated Learning and Blockchain [29.968086297894626]
そこで我々はDFLocというフレームワークを提案し,正確な3Dローカライゼーションを実現する。
具体的には、信頼性が高く正確な屋内位置決めシステムにおける単一点故障の問題に対処する。
悪意のあるノード攻撃の懸念を軽減するため、ブロックチェーン内にモデル検証機構を更新する。
論文 参考訳(メタデータ) (2024-07-08T04:14:19Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Federated Learning: A Cutting-Edge Survey of the Latest Advancements and Applications [6.042202852003457]
Federated Learning(FL)は、堅牢な機械学習(ML)モデルを開発するためのテクニックである。
ユーザのプライバシを保護するため、FLでは、大量の生データや潜在的機密データを送信するのではなく、モデル更新を送信する必要がある。
このサーベイは、最新のFLアルゴリズムの包括的な分析と比較を提供する。
論文 参考訳(メタデータ) (2023-10-08T19:54:26Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。