論文の概要: SENTINEL: Securing Indoor Localization against Adversarial Attacks with Capsule Neural Networks
- arxiv url: http://arxiv.org/abs/2407.11091v1
- Date: Sun, 14 Jul 2024 21:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 19:50:52.998600
- Title: SENTINEL: Securing Indoor Localization against Adversarial Attacks with Capsule Neural Networks
- Title(参考訳): SENTINEL: カプセルニューラルネットワークによる敵攻撃に対する屋内局所性の確保
- Authors: Danish Gufran, Pooja Anandathirtha, Sudeep Pasricha,
- Abstract要約: SENTINELは、屋内のローカライゼーションソリューションの敵攻撃に対するレジリエンスを高めるための、新しい組込み機械学習フレームワークである。
RSSRogueLocも導入しています。これは実世界の屋内環境からローグAPの効果を計測するデータセットです。
- 参考スコア(独自算出の注目度): 2.7186493234782527
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing demand for edge device powered location-based services in indoor environments, Wi-Fi received signal strength (RSS) fingerprinting has become popular, given the unavailability of GPS indoors. However, achieving robust and efficient indoor localization faces several challenges, due to RSS fluctuations from dynamic changes in indoor environments and heterogeneity of edge devices, leading to diminished localization accuracy. While advances in machine learning (ML) have shown promise in mitigating these phenomena, it remains an open problem. Additionally, emerging threats from adversarial attacks on ML-enhanced indoor localization systems, especially those introduced by malicious or rogue access points (APs), can deceive ML models to further increase localization errors. To address these challenges, we present SENTINEL, a novel embedded ML framework utilizing modified capsule neural networks to bolster the resilience of indoor localization solutions against adversarial attacks, device heterogeneity, and dynamic RSS fluctuations. We also introduce RSSRogueLoc, a novel dataset capturing the effects of rogue APs from several real-world indoor environments. Experimental evaluations demonstrate that SENTINEL achieves significant improvements, with up to 3.5x reduction in mean error and 3.4x reduction in worst-case error compared to state-of-the-art frameworks using simulated adversarial attacks. SENTINEL also achieves improvements of up to 2.8x in mean error and 2.7x in worst-case error compared to state-of-the-art frameworks when evaluated with the real-world RSSRogueLoc dataset.
- Abstract(参考訳): 屋内環境におけるエッジデバイスによる位置情報サービスへの需要が高まっているため、GPSが屋内で利用できないため、Wi-Fiは信号強度(RSS)指紋認証が普及している。
しかし、屋内環境の動的変化によるRSS変動とエッジデバイスの不均一性により、ロバストで効率的な屋内局所化を実現するには、いくつかの課題がある。
機械学習(ML)の進歩は、これらの現象を緩和する可能性を示しているが、依然として未解決の問題である。
さらに、MLに強化された屋内ローカライゼーションシステム、特に悪意あるまたは悪質なアクセスポイント(AP)によって導入された攻撃による新興脅威は、ローカライゼーションエラーをさらに増大させるためにMLモデルを欺くことができる。
これらの課題に対処するために、SENTINELは、改良型カプセルニューラルネットワークを利用して、敵攻撃、デバイス不均一性、動的RSS変動に対する屋内局在化ソリューションのレジリエンスを高める、新しい組込みMLフレームワークである。
RSSRogueLocは、複数の屋内環境からのローグAPの効果を抽出する新しいデータセットである。
実験により、SENTINELは、シミュレーションされた敵攻撃を用いた最先端フレームワークと比較して、平均誤差が3.5倍、最悪のケースエラーが3.4倍の大幅な改善を実現していることが示された。
SENTINELは、現実のRSSRogueLocデータセットで評価した場合、最先端のフレームワークと比較して平均エラーの2.8倍、最悪のエラーの2.7倍の改善も達成している。
関連論文リスト
- SAFELOC: Overcoming Data Poisoning Attacks in Heterogeneous Federated Machine Learning for Indoor Localization [2.9699290794642366]
機械学習(ML)ベースの屋内ローカライゼーションソリューションは多くの新興アプリケーションにとって重要である。
彼らの効果は、モバイルデバイス間のハードウェア/ソフトウェアの違いと、MLデータ中毒攻撃の脅威によってしばしば損なわれる。
SAFELOCは,これらの困難な条件下での局所化誤差を最小限に抑えるだけでなく,効率的なモバイルデバイス配置のためのモデルコンパクト性を確保する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-11-13T22:28:05Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - SANGRIA: Stacked Autoencoder Neural Networks with Gradient Boosting for
Indoor Localization [3.3379026542599934]
そこで本研究では,SANGRIAと呼ばれる屋内位置推定のための新しいフィンガープリント・フレームワークを提案する。
屋内の様々な地域や異種デバイスにおける平均局所化誤差が42.96%低いことを実証する。
論文 参考訳(メタデータ) (2024-03-03T00:01:29Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with
Pre-trained Vision-Language Models [62.663113296987085]
クラス増分学習(class-incremental learning)は、モデルが限られたデータに基づいて漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
冗長特徴除去器(RFE)と空間ノイズ補償器(SNC)の2つの新しいコンポーネントを紹介する。
既存の3次元データセットの不均衡を考慮し、3次元FSCILモデルのより微妙な評価を提供する新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - CALLOC: Curriculum Adversarial Learning for Secure and Robust Indoor
Localization [3.943289808718775]
CALLOC(CALLOC)は,屋内環境やデバイスにまたがる敵の攻撃や変動に抵抗するように設計された,新しいフレームワークである。
CALLOCは、ドメイン固有の軽量なスケールドドット製品アテンションニューラルネットワークを備えた、適応的なカリキュラム学習アプローチを採用している。
CALLOCは、最先端の屋内ローカライゼーションフレームワークに対して、平均エラーが6.03倍、最悪のエラーが4.6倍まで改善可能であることを示す。
論文 参考訳(メタデータ) (2023-11-10T19:26:31Z) - FedHIL: Heterogeneity Resilient Federated Learning for Robust Indoor
Localization with Mobile Devices [4.226118870861363]
緊急対応、倉庫管理、拡張現実体験などの応用において、屋内のローカライゼーションは重要な役割を担っている。
デバイス・ヘテロジニアス環境における屋内位置推定精度を向上させるために,FedHILと呼ばれる新しい組込み機械学習フレームワークを提案する。
本フレームワークは,屋内の局所化とフェデレート学習(FL)を組み合わせることで,デバイス・異種環境における屋内の局所化精度を向上させる。
論文 参考訳(メタデータ) (2023-07-04T15:34:13Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Multi-Head Attention Neural Network for Smartphone Invariant Indoor
Localization [3.577310844634503]
RSSIフィンガープリントと共にスマートフォンは、低コストで高精度な屋内ローカライゼーションソリューションを提供するための効率的なアプローチとして機能する。
デバイスの不均一性に耐性を持つマルチヘッド型ニューラルネットワークを用いた屋内位置決めフレームワークを提案する。
提案手法の詳細な分析により,最先端の屋内局地化技術と比較して最大35%の精度向上が得られた。
論文 参考訳(メタデータ) (2022-05-17T03:08:09Z) - Dynamics-aware Adversarial Attack of 3D Sparse Convolution Network [75.1236305913734]
ディープニューラルネットワークにおける動的に認識される敵攻撃問題について検討する。
ほとんどの既存の敵攻撃アルゴリズムは基本的な前提の下で設計されており、ネットワークアーキテクチャは攻撃プロセス全体を通して固定されている。
本稿では,LGM(Leaded Gradient Method)を提案する。
論文 参考訳(メタデータ) (2021-12-17T10:53:35Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。