論文の概要: Dynamic Black-box Backdoor Attacks on IoT Sensory Data
- arxiv url: http://arxiv.org/abs/2511.14074v1
- Date: Tue, 18 Nov 2025 03:07:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.892795
- Title: Dynamic Black-box Backdoor Attacks on IoT Sensory Data
- Title(参考訳): IoTセンサーデータによる動的ブラックボックスバックドア攻撃
- Authors: Ajesh Koyatan Chathoth, Stephen Lee,
- Abstract要約: センサデータに基づくIoTシステムに対して,ブラックボックス攻撃を行う新しい動的トリガ生成手法について論じる。
実験により,入力データに対する摂動が最小限に抑えられた各種データセットや分類器モデルにおいて,攻撃が成功したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor data-based recognition systems are widely used in various applications, such as gait-based authentication and human activity recognition (HAR). Modern wearable and smart devices feature various built-in Inertial Measurement Unit (IMU) sensors, and such sensor-based measurements can be fed to a machine learning-based model to train and classify human activities. While deep learning-based models have proven successful in classifying human activity and gestures, they pose various security risks. In our paper, we discuss a novel dynamic trigger-generation technique for performing black-box adversarial attacks on sensor data-based IoT systems. Our empirical analysis shows that the attack is successful on various datasets and classifier models with minimal perturbation on the input data. We also provide a detailed comparative analysis of performance and stealthiness to various other poisoning techniques found in backdoor attacks. We also discuss some adversarial defense mechanisms and their impact on the effectiveness of our trigger-generation technique.
- Abstract(参考訳): センサデータに基づく認識システムは、歩行に基づく認証やヒューマンアクティビティ認識(HAR)など、様々なアプリケーションで広く利用されている。
現代のウェアラブルおよびスマートデバイスは、様々な組み込み慣性計測ユニット(IMU)センサーを備えており、そのようなセンサーに基づく測定は、機械学習ベースのモデルに供給され、人間の活動のトレーニングと分類を行うことができる。
ディープラーニングベースのモデルは、人間の活動とジェスチャーの分類に成功しているが、それらは様々なセキュリティリスクを生じさせている。
本稿では,センサデータに基づくIoTシステムに対して,ブラックボックス攻撃を行う新しい動的トリガ生成手法について論じる。
実験により,入力データに対する摂動が最小限に抑えられた各種データセットや分類器モデルにおいて,攻撃が成功したことを示す。
また,バックドア攻撃で検出された各種毒殺技術と比較して,パフォーマンスとステルスネスの詳細な比較分析を行った。
また, 敵防御機構について考察し, その効果について考察した。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - A Chaos Driven Metric for Backdoor Attack Detection [1.534667887016089]
この研究は、AIモデルの最も重要な攻撃ベクトルの1つであるトレーニングデータセットのデータ中毒によるバックドア攻撃に対する、新たな防御メカニズムを提案する。
本手法では,カオス理論と多様体学習を組み合わせた統合的手法を提案する。
ニューロカオス特徴の条件分散に基づく新しい尺度-精度行列依存スコア(PDS)を定式化する。
論文 参考訳(メタデータ) (2025-05-06T05:51:27Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Unsupervised Statistical Feature-Guided Diffusion Model for Sensor-based Human Activity Recognition [3.2319909486685354]
ウェアラブルセンサーによる人間の活動認識の進歩を支えている重要な問題は、多様なラベル付きトレーニングデータの利用不可能である。
本研究では,ウェアラブルセンサを用いた人間行動認識に特化して最適化された,教師なしの統計的特徴誘導拡散モデルを提案する。
平均,標準偏差,Zスコア,歪などの統計情報に拡散モデルを適用し,多種多様な合成センサデータを生成する。
論文 参考訳(メタデータ) (2023-05-30T15:12:59Z) - Analysis and Detectability of Offline Data Poisoning Attacks on Linear
Dynamical Systems [0.30458514384586405]
統計検査のレンズを用いて最小二乗推定値に有毒が及ぼす影響について検討した。
古典的な統計的テストから逃れることのできる最小二乗推定器に対するステルスデータ中毒攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T10:01:03Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Deep Learning based Covert Attack Identification for Industrial Control
Systems [5.299113288020827]
我々は、スマートグリッドに対する秘密攻撃と呼ばれるサイバー攻撃を検出し、診断し、ローカライズするために使用できるデータ駆動フレームワークを開発した。
このフレームワークは、オートエンコーダ、リカレントニューラルネットワーク(RNN)とLong-Short-Term-Memory層、Deep Neural Network(DNN)を組み合わせたハイブリッド設計である。
論文 参考訳(メタデータ) (2020-09-25T17:48:43Z) - A Comparative Study of AI-based Intrusion Detection Techniques in
Critical Infrastructures [4.8041243535151645]
本稿では,重要なアプリケーションを追跡する無線接続型センサに対するAI駆動の侵入検知システムについて比較検討する。
具体的には、収集したトラフィックの侵入行動を認識するために、機械学習、深層学習、強化学習ソリューションの使用について、詳細な分析を行う。
その結果、Adaptively SupervisedおよびClustered Hybrid IDS、Boltzmann MachineベースのClustered IDS、Q-learningベースのIDSの3つの異なるIDSのパフォーマンス指標が示された。
論文 参考訳(メタデータ) (2020-07-24T20:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。