論文の概要: Towards Trustworthy Wi-Fi Sensing: Systematic Evaluation of Deep Learning Model Robustness to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2511.20456v1
- Date: Tue, 25 Nov 2025 16:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.545351
- Title: Towards Trustworthy Wi-Fi Sensing: Systematic Evaluation of Deep Learning Model Robustness to Adversarial Attacks
- Title(参考訳): 信頼できるWi-Fiセンシングに向けて:敵対的攻撃に対するディープラーニングモデルロバストネスの体系的評価
- Authors: Shreevanth Krishnaa Gopalakrishnan, Stephen Hailes,
- Abstract要約: 我々は、多様な脅威モデルと様々な攻撃リアリズムの下で、CSI深層学習モデルの堅牢性を評価する。
私たちの実験では、より小さなモデルは効率的で、クリーンなデータでも等しく機能するが、明らかにロバストさが低いことが示されています。
物理的に実現可能な信号空間の摂動は、実際の無線チャネルで実現可能なように設計されており、攻撃の成功を著しく減少させる。
- 参考スコア(独自算出の注目度): 4.5835414225547195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has become integral to Channel State Information (CSI)-based human sensing systems and is expected to power applications such as device-free activity recognition and identity detection in future cellular and Wi-Fi generations. However, these systems rely on models whose decisions can be subtly perturbed, raising concerns for security and reliability in ubiquitous sensing. Quantifying and understanding the robustness of such models, defined as their ability to maintain accurate predictions under adversarial perturbations, is therefore critical before wireless sensing can be safely deployed in real-world environments. This work presents a systematic evaluation of the robustness of CSI deep learning models under diverse threat models (white-box, black-box/transfer, and universal perturbations) and varying degrees of attack realism. We establish a framework to compare compact temporal autoencoder models with larger deep architectures across three public datasets, quantifying how model scale, training regime, and physical constraints influence robustness. Our experiments show that smaller models, while efficient and equally performant on clean data, are markedly less robust. We further confirm that physically realizable signal-space perturbations, designed to be feasible in real wireless channels, significantly reduce attack success compared to unconstrained feature-space attacks. Adversarial training mitigates these vulnerabilities, improving mean robust accuracy with only moderate degradation in clean performance across both model classes. As wireless sensing advances towards reliable, cross-domain operation, these findings provide quantitative baselines for robustness estimation and inform design principles for secure and trustworthy human-centered sensing systems.
- Abstract(参考訳): 機械学習はChannel State Information(CSI)ベースのヒューマンセンシングシステムに不可欠なものとなり、将来の携帯電話やWi-Fi世代におけるデバイスフリーのアクティビティ認識やアイデンティティ検出などのアプリケーションを動かすことが期待されている。
しかし、これらのシステムは決定が微妙に乱れてしまうモデルに依存しており、ユビキタスセンシングにおけるセキュリティと信頼性への懸念が高まっている。
このようなモデルの堅牢性の定量化と理解は、敵の摂動の下で正確な予測を維持する能力として定義されており、ワイヤレスセンシングが現実世界の環境に安全に展開される前には不可欠である。
本研究は, 多様な脅威モデル(ホワイトボックス, ブラックボックス/トランスファー, ユニバーサル摂動)と様々な攻撃リアリズムの下でのCSI深層学習モデルの頑健さを体系的に評価する。
我々は,コンパクトな時間的オートエンコーダモデルと3つの公開データセットにわたる大規模アーキテクチャを比較し,モデルスケール,トレーニング体制,物理的制約がロバスト性にどのように影響するかを定量化する枠組みを確立した。
私たちの実験では、より小さなモデルは効率的で、クリーンなデータでも等しく機能するが、明らかにロバストさが低いことが示されています。
さらに、実際の無線チャネルで実現可能な物理的に実現可能な信号空間摂動が、制約のない特徴空間攻撃と比較して攻撃成功を著しく減少させることを確認した。
敵対的トレーニングはこれらの脆弱性を軽減し、両方のモデルクラスにわたるクリーンなパフォーマンスを適度に低下させるだけで、平均的堅牢な精度を向上させる。
無線センシングが信頼性の高いクロスドメイン操作へと進むにつれ、ロバストネス推定のための定量的ベースラインと、安全で信頼性の高い人間中心センシングシステムの設計原則が提供される。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - An Adversarial-Driven Experimental Study on Deep Learning for RF Fingerprinting [6.145167956956878]
無線周波数(RF)フィンガープリントは、有望な物理層デバイス識別機構として登場した。
ディープラーニング(DL)手法はこの領域で最先端のパフォーマンスを実証している。
生の受信信号に対するDLモデルの訓練により,RF指紋と環境・信号パターンの特徴を絡み合わせる結果が得られた。
論文 参考訳(メタデータ) (2025-07-18T17:42:20Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Securing Distributed Network Digital Twin Systems Against Model Poisoning Attacks [19.697853431302768]
ディジタルツイン(DT)は、リアルタイム監視、予測、意思決定能力の向上を具現化する。
本研究では,分散ネットワークDTシステムにおけるセキュリティ上の課題について検討し,その後のネットワークアプリケーションの信頼性を損なう可能性がある。
論文 参考訳(メタデータ) (2024-07-02T03:32:09Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。