論文の概要: A White-Box Adversarial Attack Against a Digital Twin
- arxiv url: http://arxiv.org/abs/2210.14018v1
- Date: Tue, 25 Oct 2022 13:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:14:59.631705
- Title: A White-Box Adversarial Attack Against a Digital Twin
- Title(参考訳): デジタル双生児に対するWhite-Box対応攻撃
- Authors: Wilson Patterson, Ivan Fernandez, Subash Neupane, Milan Parmar, Sudip
Mittal, Shahram Rahimi
- Abstract要約: 本稿では,敵対的攻撃に対するDigital Twin(DT)の感受性について検討する。
まず、ディープニューラルネットワークアーキテクチャを用いて車両システムのDTを定式化し、それから敵攻撃を開始する。
トレーニングされたモデルへの入力を摂動させることでDTモデルを攻撃し、ホワイトボックスアタックによってモデルがいかに簡単に破られるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has shown that Machine Learning/Deep Learning (ML/DL) models
are particularly vulnerable to adversarial perturbations, which are small
changes made to the input data in order to fool a machine learning classifier.
The Digital Twin, which is typically described as consisting of a physical
entity, a virtual counterpart, and the data connections in between, is
increasingly being investigated as a means of improving the performance of
physical entities by leveraging computational techniques, which are enabled by
the virtual counterpart. This paper explores the susceptibility of Digital Twin
(DT), a virtual model designed to accurately reflect a physical object using
ML/DL classifiers that operate as Cyber Physical Systems (CPS), to adversarial
attacks. As a proof of concept, we first formulate a DT of a vehicular system
using a deep neural network architecture and then utilize it to launch an
adversarial attack. We attack the DT model by perturbing the input to the
trained model and show how easily the model can be broken with white-box
attacks.
- Abstract(参考訳): 近年の研究では、機械学習/深層学習(ML/DL)モデルが特に、機械学習分類器を騙すために入力データに小さな変更を加え、敵の摂動に弱いことが示されている。
デジタルツイン(Digital Twin)は、物理エンティティ、仮想オブジェクト、およびその間のデータ接続からなると一般的に言われるが、仮想オブジェクトによって実現される計算技術を活用して、物理エンティティのパフォーマンスを向上させる手段として、ますます研究されている。
本稿では,CPS(Cyber Physical Systems)として動作するML/DL分類器を用いて,物理的対象を正確に反映した仮想モデルであるDigital Twin(DT)の攻撃に対する感受性について検討する。
概念実証として,我々はまず,深層ニューラルネットワークアーキテクチャを用いて車両システムのdtを定式化し,それを用いて逆襲を行う。
トレーニングされたモデルへの入力を摂動させることでDTモデルを攻撃し、ホワイトボックスアタックによってモデルがいかに簡単に壊れるかを示す。
関連論文リスト
- Black-box Adversarial Transferability: An Empirical Study in Cybersecurity Perspective [0.0]
敵対的機械学習では、悪意のあるユーザは、トレーニングまたはテストフェーズ中に、相手の摂動入力をモデルに挿入することで、ディープラーニングモデルを騙そうとします。
サイバー攻撃検知システムにおけるブラックボックスの逆転現象を実証的に検証する。
その結果,攻撃者が対象モデルの内部情報にアクセスできなくても,どんなディープラーニングモデルでも敵攻撃に強い影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-15T06:56:28Z) - Twin Auto-Encoder Model for Learning Separable Representation in Cyberattack Detection [21.581155557707632]
サイバーアタック検出のためのTwin Auto-Encoder (TAE) と呼ばれる新しいモードを提案する。
実験結果は、最先端のRLモデルとよく知られた機械学習アルゴリズムよりもTAEの精度が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-22T03:39:40Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Learning to Detect: A Data-driven Approach for Network Intrusion
Detection [17.288512506016612]
ネットワークトラフィックデータセットであるNSL-KDDについて、パターンを可視化し、異なる学習モデルを用いてサイバー攻撃を検出することで包括的な研究を行う。
侵入検知に単一学習モデルアプローチを用いた従来の浅層学習モデルや深層学習モデルとは異なり、階層戦略を採用する。
バイナリ侵入検出タスクにおける教師なし表現学習モデルの利点を実証する。
論文 参考訳(メタデータ) (2021-08-18T21:19:26Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。