論文の概要: Adversarial-Ensemble Kolmogorov Arnold Networks for Enhancing Indoor Wi-Fi Positioning: A Defensive Approach Against Spoofing and Signal Manipulation Attacks
- arxiv url: http://arxiv.org/abs/2501.09609v1
- Date: Thu, 16 Jan 2025 15:34:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:09:42.319775
- Title: Adversarial-Ensemble Kolmogorov Arnold Networks for Enhancing Indoor Wi-Fi Positioning: A Defensive Approach Against Spoofing and Signal Manipulation Attacks
- Title(参考訳): 屋内Wi-Fi位置決め強化のための逆アンサンブル・コルモゴロフ・アーノルドネットワーク:スポーフィングと信号操作攻撃に対する防御的アプローチ
- Authors: Mitul Goswami, Romit Chatterjee, Somnath Mahato, Prasant Kumar Pattnaik,
- Abstract要約: 本研究は,Wi-Fiを用いた屋内位置決めシステムの敵攻撃に対する堅牢性向上に関する研究である。
目標は、Wi-Fi SpoofingとSignal Strength Manipulationという2つの攻撃シナリオの下で、これらのシステムの位置決め精度とレジリエンスを改善することである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The research presents a study on enhancing the robustness of Wi-Fi-based indoor positioning systems against adversarial attacks. The goal is to improve the positioning accuracy and resilience of these systems under two attack scenarios: Wi-Fi Spoofing and Signal Strength Manipulation. Three models are developed and evaluated: a baseline model (M_Base), an adversarially trained robust model (M_Rob), and an ensemble model (M_Ens). All models utilize a Kolmogorov-Arnold Network (KAN) architecture. The robust model is trained with adversarially perturbed data, while the ensemble model combines predictions from both the base and robust models. Experimental results show that the robust model reduces positioning error by approximately 10% compared to the baseline, achieving 2.03 meters error under Wi-Fi spoofing and 2.00 meters under signal strength manipulation. The ensemble model further outperforms with errors of 2.01 meters and 1.975 meters for the respective attack types. This analysis highlights the effectiveness of adversarial training techniques in mitigating attack impacts. The findings underscore the importance of considering adversarial scenarios in developing indoor positioning systems, as improved resilience can significantly enhance the accuracy and reliability of such systems in mission-critical environments.
- Abstract(参考訳): 本研究は,Wi-Fiを用いた屋内位置決めシステムの敵攻撃に対する堅牢性向上に関する研究である。
目標は、Wi-Fi SpoofingとSignal Strength Manipulationという2つの攻撃シナリオの下で、これらのシステムの位置決め精度とレジリエンスを改善することである。
ベースラインモデル(M_Base)、反対に訓練されたロバストモデル(M_Rob)、アンサンブルモデル(M_Ens)の3つのモデルを開発した。
全てのモデルはコルモゴロフ・アルノルドネットワーク(KAN)アーキテクチャを使用している。
ロバストモデルは逆摂動データを用いて訓練され、アンサンブルモデルはベースモデルとロバストモデルの両方からの予測を組み合わせる。
実験結果から、ロバストモデルでは、ベースラインと比較して位置決め誤差が約10%減少し、Wi-Fiスプーフィングでは2.03m、信号強度操作では2.00mとなることがわかった。
アンサンブルモデルは、それぞれの攻撃タイプに対して2.1メートルと1.975メートルの誤差でさらに優れる。
この分析は、攻撃効果を軽減するための敵の訓練手法の有効性を強調している。
レジリエンスの向上は、ミッションクリティカルな環境におけるこれらのシステムの精度と信頼性を著しく向上させる可能性があるため、屋内位置決めシステムの開発における敵のシナリオを検討することの重要性を浮き彫りにしている。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - SecureBERT and LLAMA 2 Empowered Control Area Network Intrusion
Detection and Classification [2.824211356106516]
我々は、CAN侵入検知のための2つの異なるモデル、CAN-SecureBERTとCAN-LLAMA2を開発した。
Can-LLAMA2モデルは、バランスの取れた精度、精度検出率、F1スコア、そして驚くほど低い3.10e-6の誤警報率で、例外的なパフォーマンス 0.999993 を達成することで、最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-19T23:49:08Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - MORA: Improving Ensemble Robustness Evaluation with Model-Reweighing
Attack [26.37741124166643]
敵攻撃は、入力データに小さな摂動を加えることで、ニューラルネットワークを騙すことができる。
敵の攻撃戦略は、アンサンブル防御を確実に評価することができず、その頑健さをかなり過大評価できることを示す。
我々は, モデル勾配の重要性を再考することにより, モデル修正攻撃であるMORAを紹介した。
論文 参考訳(メタデータ) (2022-11-15T09:45:32Z) - LPF-Defense: 3D Adversarial Defense based on Frequency Analysis [11.496599300185915]
3Dポイントのクラウド分類は、いまだに敵の攻撃に対して非常に脆弱である。
入力データの中間成分と高周波成分には、より多くの逆の摂動がある。
トレーニング段階での高周波コンテンツを抑えることにより、逆例に対するモデルが改善される。
論文 参考訳(メタデータ) (2022-02-23T03:31:25Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - RobustART: Benchmarking Robustness on Architecture Design and Training
Techniques [170.3297213957074]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
アーキテクチャ設計とトレーニングのテクニックが堅牢性にどのように影響するかに関する包括的な研究はない。
本稿では,ImageNet上での包括性調査ベンチマークを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:01:14Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。