論文の概要: Cyber Security of Sensor Systems for State Sequence Estimation: an AI Approach
- arxiv url: http://arxiv.org/abs/2506.06572v1
- Date: Fri, 06 Jun 2025 22:51:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.335666
- Title: Cyber Security of Sensor Systems for State Sequence Estimation: an AI Approach
- Title(参考訳): 状態系列推定のためのセンサシステムのサイバーセキュリティ:AIアプローチ
- Authors: Xubin Fang, Rick S. Blum, Ramesh Bharadwaj, Brian M. Sadler,
- Abstract要約: 本稿では,問題となるセンサデータのみを正確に識別・除去する手法を開発した。
この手法はセンサデータの統計モデルに既知の形式を仮定しない。
- 参考スコア(独自算出の注目度): 19.125720311271508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor systems are extremely popular today and vulnerable to sensor data attacks. Due to possible devastating consequences, counteracting sensor data attacks is an extremely important topic, which has not seen sufficient study. This paper develops the first methods that accurately identify/eliminate only the problematic attacked sensor data presented to a sequence estimation/regression algorithm under a powerful attack model constructed based on known/observed attacks. The approach does not assume a known form for the statistical model of the sensor data, allowing data-driven and machine learning sequence estimation/regression algorithms to be protected. A simple protection approach for attackers not endowed with knowledge of the details of our protection approach is first developed, followed by additional processing for attacks based on protection system knowledge. In the cases tested for which it was designed, experimental results show that the simple approach achieves performance indistinguishable, to two decimal places, from that for an approach which knows which sensors are attacked. For cases where the attacker has knowledge of the protection approach, experimental results indicate the additional processing can be configured so that the worst-case degradation under the additional processing and a large number of sensors attacked can be made significantly smaller than the worst-case degradation of the simple approach, and close to an approach which knows which sensors are attacked, for the same number of attacked sensors with just a slight degradation under no attacks. Mathematical descriptions of the worst-case attacks are used to demonstrate the additional processing will provide similar advantages for cases for which we do not have numerical results. All the data-driven processing used in our approaches employ only unattacked training data.
- Abstract(参考訳): センサーシステムは今日では非常に人気があり、センサーデータアタックに弱い。
破壊的な結果をもたらす可能性があるため、センサーデータに対する攻撃は極めて重要なトピックであり、十分な研究が得られていない。
本稿では,既知の/観測された攻撃に基づいて構築された強力な攻撃モデルの下で,シーケンス推定/回帰アルゴリズムに提示される問題のある攻撃センサデータのみを正確に識別・除去する手法を開発した。
このアプローチでは、センサデータの統計モデルの既知の形式を前提とせず、データ駆動および機械学習シーケンス推定/回帰アルゴリズムを保護している。
攻撃者に対する簡単な保護手法として,保護手法の詳細に関する知識が与えられず,続いて保護システム知識に基づく攻撃のための追加処理が開発された。
設計したケースでは, 簡易なアプローチにより, センサが攻撃されたかを知るアプローチから, 2つの小位置まで, 性能の区別が難しいことを示す実験結果が得られた。
攻撃者が保護アプローチを知っている場合、実験結果から、追加処理による最悪のケース劣化と、攻撃された多数のセンサーが、単純なアプローチの最悪のケース劣化よりも著しく小さくでき、攻撃を受けない攻撃されたセンサーの数と同じ数に対して、どのセンサーが攻撃されているかを知るアプローチに近いように、追加処理を設定することができる。
最悪のケース攻撃の数学的記述は、追加処理を実証するために使用され、数値的な結果が得られない場合にも同様の利点をもたらす。
このアプローチで使用されるデータ駆動処理はすべて、非攻撃的なトレーニングデータのみを使用します。
関連論文リスト
- Indiscriminate Data Poisoning Attacks on Pre-trained Feature Extractors [26.36344184385407]
本稿では,事前訓練した特徴抽出器を応用した下流タスクに対する無差別攻撃の脅威について検討する。
入力空間攻撃とは,(1)既存の攻撃を修正して入力空間に有毒なデータを作る攻撃と,(2)学習した特徴表現をデータセットとして扱うことで有毒な特徴を見つける攻撃である。
実験では、同じデータセット上の微調整やドメイン適応を考慮した転帰学習など、下流の一般的なタスクにおける攻撃について検討した。
論文 参考訳(メタデータ) (2024-02-20T01:12:59Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Label Flipping Data Poisoning Attack Against Wearable Human Activity
Recognition System [0.5284812806199193]
本稿では,HAR(Human Activity Recognition)システムに対するラベルフリップデータ中毒攻撃の設計について述べる。
検知環境におけるノイズと不確実性のため、このような攻撃は認識システムに深刻な脅威をもたらす。
本稿では,スマートフォンによるセンサデータ収集アプリケーションを通じて,この攻撃を実際に行う方法について,光を当てる。
論文 参考訳(メタデータ) (2022-08-17T17:52:13Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Active Fuzzing for Testing and Securing Cyber-Physical Systems [8.228859318969082]
パケットレベルのCPSネットワーク攻撃のテストスイートを見つけるための,能動ファジィングを提案する。
私たちのソリューションの鍵は、ペイロードをサンプリングすることでモデルを反復的に更新するオンラインアクティブラーニングを使用することです。
本研究は,水浄化プラントテストベッドに実装した活性ファジィングの有効性を評価し,フロー,プレッシャ,オーバー/アンダーフロー攻撃の試験スイートを自動的に検出できることを見出した。
論文 参考訳(メタデータ) (2020-05-28T16:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。