論文の概要: ConAML: Constrained Adversarial Machine Learning for Cyber-Physical
Systems
- arxiv url: http://arxiv.org/abs/2003.05631v3
- Date: Tue, 24 Nov 2020 21:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:54:26.675803
- Title: ConAML: Constrained Adversarial Machine Learning for Cyber-Physical
Systems
- Title(参考訳): ConAML:サイバー物理システムのための制約付き逆機械学習
- Authors: Jiangnan Li, Yingyuan Yang, Jinyuan Stella Sun, Kevin Tomsovic,
Hairong Qi
- Abstract要約: サイバー物理システムに適用された機械学習の潜在的な脆弱性について検討する。
本稿では,本システム固有の制約を満たす逆例を生成するConstrained Adversarial Machine Learning (ConAML)を提案する。
- 参考スコア(独自算出の注目度): 7.351477761427584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research demonstrated that the superficially well-trained machine
learning (ML) models are highly vulnerable to adversarial examples. As ML
techniques are becoming a popular solution for cyber-physical systems (CPSs)
applications in research literatures, the security of these applications is of
concern. However, current studies on adversarial machine learning (AML) mainly
focus on pure cyberspace domains. The risks the adversarial examples can bring
to the CPS applications have not been well investigated. In particular, due to
the distributed property of data sources and the inherent physical constraints
imposed by CPSs, the widely-used threat models and the state-of-the-art AML
algorithms in previous cyberspace research become infeasible.
We study the potential vulnerabilities of ML applied in CPSs by proposing
Constrained Adversarial Machine Learning (ConAML), which generates adversarial
examples that satisfy the intrinsic constraints of the physical systems. We
first summarize the difference between AML in CPSs and AML in existing
cyberspace systems and propose a general threat model for ConAML. We then
design a best-effort search algorithm to iteratively generate adversarial
examples with linear physical constraints. We evaluate our algorithms with
simulations of two typical CPSs, the power grids and the water treatment
system. The results show that our ConAML algorithms can effectively generate
adversarial examples which significantly decrease the performance of the ML
models even under practical constraints.
- Abstract(参考訳): 最近の研究では、表向きに訓練された機械学習(ML)モデルが、敵の例に対して非常に脆弱であることが示されている。
ML技術が研究文献におけるサイバー物理システム(CPS)応用の一般的なソリューションになりつつあるため、これらのアプリケーションのセキュリティが懸念されている。
しかし、敵機械学習(AML)に関する最近の研究は主に純粋なサイバースペースドメインに焦点を当てている。
敵の例がCPSアプリケーションにもたらすリスクは、十分に調査されていない。
特に、データソースの分散性とCPSが課した固有の物理的制約のため、従来のサイバースペース研究における広く使われている脅威モデルと最先端のAMLアルゴリズムは実現不可能である。
本研究では,CPSに適用されるMLの潜在的な脆弱性について,本質的な制約を満たす逆例を生成するConstrained Adversarial Machine Learning (ConAML)を提案する。
まず、CPSにおけるAMLと既存のサイバースペースシステムにおけるAMLの違いを要約し、ConAMLの一般的な脅威モデルを提案する。
次に、線形物理制約のある逆例を反復的に生成する最善探索アルゴリズムを設計する。
電力グリッドと水処理システムの2つの典型的なcpsのシミュレーションを用いてアルゴリズムを評価する。
その結果,conamlアルゴリズムは,実際の制約下でもmlモデルの性能を著しく低下させる逆例を効果的に生成できることがわかった。
関連論文リスト
- Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - Identifying the Hazard Boundary of ML-enabled Autonomous Systems Using
Cooperative Co-Evolutionary Search [9.511076358998073]
機械学習対応自律システムにおけるMLコンポーネント(MLC)のハザード境界を解析により同定することが不可欠である。
協調進化アルゴリズム(CCEA)に基づく新しい手法であるMLCSHEを提案する。
複雑な自律走行車(AV)のケーススタディにおけるMLCSHEの有効性と効率について検討した。
論文 参考訳(メタデータ) (2023-01-31T17:50:52Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Adversarial Machine Learning Threat Analysis in Open Radio Access
Networks [37.23982660941893]
Open Radio Access Network (O-RAN) は、新しい、オープンで適応的でインテリジェントなRANアーキテクチャである。
本稿では,O-RANに対する体系的対向機械学習脅威分析を提案する。
論文 参考訳(メタデータ) (2022-01-16T17:01:38Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。