論文の概要: CALLOC: Curriculum Adversarial Learning for Secure and Robust Indoor
Localization
- arxiv url: http://arxiv.org/abs/2311.06361v1
- Date: Fri, 10 Nov 2023 19:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:58:13.753164
- Title: CALLOC: Curriculum Adversarial Learning for Secure and Robust Indoor
Localization
- Title(参考訳): CALLOC: セキュアでロバストな屋内ローカライゼーションのためのカリキュラム逆学習
- Authors: Danish Gufran, Sudeep Pasricha
- Abstract要約: CALLOC(CALLOC)は,屋内環境やデバイスにまたがる敵の攻撃や変動に抵抗するように設計された,新しいフレームワークである。
CALLOCは、ドメイン固有の軽量なスケールドドット製品アテンションニューラルネットワークを備えた、適応的なカリキュラム学習アプローチを採用している。
CALLOCは、最先端の屋内ローカライゼーションフレームワークに対して、平均エラーが6.03倍、最悪のエラーが4.6倍まで改善可能であることを示す。
- 参考スコア(独自算出の注目度): 3.943289808718775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Indoor localization has become increasingly vital for many applications from
tracking assets to delivering personalized services. Yet, achieving pinpoint
accuracy remains a challenge due to variations across indoor environments and
devices used to assist with localization. Another emerging challenge is
adversarial attacks on indoor localization systems that not only threaten
service integrity but also reduce localization accuracy. To combat these
challenges, we introduce CALLOC, a novel framework designed to resist
adversarial attacks and variations across indoor environments and devices that
reduce system accuracy and reliability. CALLOC employs a novel adaptive
curriculum learning approach with a domain specific lightweight scaled-dot
product attention neural network, tailored for adversarial and variation
resilience in practical use cases with resource constrained mobile devices.
Experimental evaluations demonstrate that CALLOC can achieve improvements of up
to 6.03x in mean error and 4.6x in worst-case error against state-of-the-art
indoor localization frameworks, across diverse building floorplans, mobile
devices, and adversarial attacks scenarios.
- Abstract(参考訳): 屋内のローカライゼーションは、資産の追跡からパーソナライズされたサービスの提供まで、多くのアプリケーションにとってますます重要になっている。
しかし、ピンポイント精度を達成することは、屋内環境や局所化に使用されるデバイスによって異なるため、依然として課題である。
もう一つの新たな課題は、サービス整合性を脅かすだけでなく、ローカライズ精度を低下させる屋内ローカライズシステムに対する敵意攻撃である。
これらの課題に対処するために,システム精度と信頼性を低下させる屋内環境や機器の敵攻撃や変動に抵抗する新しいフレームワークであるCALLOCを紹介した。
CALLOCは、リソース制約のあるモバイルデバイスの実用的なユースケースにおいて、対角的および変動性の回復性に適した、ドメイン固有の軽量なスケールドドット製品アテンションニューラルネットワークを備えた、適応型カリキュラム学習アプローチを採用している。
CALLOCは、さまざまなビルディングフロアプラン、モバイルデバイス、敵攻撃シナリオにまたがる最先端の屋内ローカライゼーションフレームワークに対して、平均エラーが6.03倍、最悪のケースエラーが4.6倍まで改善できることを示した。
関連論文リスト
- Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - SAFELOC: Overcoming Data Poisoning Attacks in Heterogeneous Federated Machine Learning for Indoor Localization [2.9699290794642366]
機械学習(ML)ベースの屋内ローカライゼーションソリューションは多くの新興アプリケーションにとって重要である。
彼らの効果は、モバイルデバイス間のハードウェア/ソフトウェアの違いと、MLデータ中毒攻撃の脅威によってしばしば損なわれる。
SAFELOCは,これらの困難な条件下での局所化誤差を最小限に抑えるだけでなく,効率的なモバイルデバイス配置のためのモデルコンパクト性を確保する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-11-13T22:28:05Z) - SENTINEL: Securing Indoor Localization against Adversarial Attacks with Capsule Neural Networks [2.7186493234782527]
SENTINELは、屋内のローカライゼーションソリューションの敵攻撃に対するレジリエンスを高めるための、新しい組込み機械学習フレームワークである。
RSSRogueLocも導入しています。これは実世界の屋内環境からローグAPの効果を計測するデータセットです。
論文 参考訳(メタデータ) (2024-07-14T21:40:12Z) - DiffuBox: Refining 3D Object Detection with Point Diffusion [74.01759893280774]
本研究では,3次元物体の検出と局所化を確保するために,新しい拡散型ボックス精細化手法を提案する。
提案手法は,様々なドメイン適応設定下で評価し,その結果,異なるデータセット間での大幅な改善が示された。
論文 参考訳(メタデータ) (2024-05-25T03:14:55Z) - STELLAR: Siamese Multi-Headed Attention Neural Networks for Overcoming
Temporal Variations and Device Heterogeneity with Indoor Localization [2.9699290794642366]
スマートフォンベースの屋内ローカライゼーションは、モバイルおよびIoTデバイスを屋内でローカライズするためのコスト効率と正確なソリューションとして登場した。
対照的な学習手法を実装した新しいフレームワークSTELLARを提案する。
その結果,最先端技術と比較して精度が8~75%向上した。
論文 参考訳(メタデータ) (2023-12-16T04:12:36Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - FedHIL: Heterogeneity Resilient Federated Learning for Robust Indoor
Localization with Mobile Devices [4.226118870861363]
緊急対応、倉庫管理、拡張現実体験などの応用において、屋内のローカライゼーションは重要な役割を担っている。
デバイス・ヘテロジニアス環境における屋内位置推定精度を向上させるために,FedHILと呼ばれる新しい組込み機械学習フレームワークを提案する。
本フレームワークは,屋内の局所化とフェデレート学習(FL)を組み合わせることで,デバイス・異種環境における屋内の局所化精度を向上させる。
論文 参考訳(メタデータ) (2023-07-04T15:34:13Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Multi-Head Attention Neural Network for Smartphone Invariant Indoor
Localization [3.577310844634503]
RSSIフィンガープリントと共にスマートフォンは、低コストで高精度な屋内ローカライゼーションソリューションを提供するための効率的なアプローチとして機能する。
デバイスの不均一性に耐性を持つマルチヘッド型ニューラルネットワークを用いた屋内位置決めフレームワークを提案する。
提案手法の詳細な分析により,最先端の屋内局地化技術と比較して最大35%の精度向上が得られた。
論文 参考訳(メタデータ) (2022-05-17T03:08:09Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Domain Adaptation of Learned Features for Visual Localization [60.6817896667435]
日時,天気,季節などの変化条件下での視覚的局所化の問題に対処する。
近年の深層ニューラルネットワークに基づく学習された局所的特徴は、古典的な手作りの局所的特徴よりも優れた性能を示している。
ドメインギャップを減らすために、いくつかの例しか必要としない、斬新で実践的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。