論文の概要: Attack Prediction using Hidden Markov Model
- arxiv url: http://arxiv.org/abs/2106.02012v1
- Date: Thu, 3 Jun 2021 17:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 17:14:28.921412
- Title: Attack Prediction using Hidden Markov Model
- Title(参考訳): 隠れマルコフモデルによる攻撃予測
- Authors: Shuvalaxmi Dass, Prerit Datta, Akbar Siami Namin
- Abstract要約: 隠れマルコフモデル(HMM)を用いて、関連する攻撃のファミリーを予測する。
我々は,HMMに基づく予測モデルを構築し,ビタビアルゴリズムを用いて提案手法を実装した。
概念実証およびモデルの性能実証として,アクションスポーフィングと呼ばれる攻撃群を予測するためのケーススタディを行った。
- 参考スコア(独自算出の注目度): 2.2559617939136505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is important to predict any adversarial attacks and their types to enable
effective defense systems. Often it is hard to label such activities as
malicious ones without adequate analytical reasoning. We propose the use of
Hidden Markov Model (HMM) to predict the family of related attacks. Our
proposed model is based on the observations often agglomerated in the form of
log files and from the target or the victim's perspective. We have built an
HMM-based prediction model and implemented our proposed approach using Viterbi
algorithm, which generates a sequence of states corresponding to stages of a
particular attack. As a proof of concept and also to demonstrate the
performance of the model, we have conducted a case study on predicting a family
of attacks called Action Spoofing.
- Abstract(参考訳): 効果的な防御システムを実現するためには、敵の攻撃とそのタイプを予測することが重要である。
このような活動を十分な分析的推論なしに悪意のあるものに分類することは困難である。
本研究では,hmm(hidden markov model)を用いて関連する攻撃のファミリーを予測することを提案する。
提案モデルは,ログファイルの形式とターゲットあるいは被害者の視点で凝集した観察結果に基づく。
我々は,HMMに基づく予測モデルを構築し,特定の攻撃の段階に対応する状態列を生成するビタビアルゴリズムを用いて提案手法を実装した。
概念実証およびモデルの性能実証のため,我々は,アクション・スプーフィングと呼ばれる攻撃ファミリーの予測に関するケーススタディを実施した。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Towards Generating Adversarial Examples on Mixed-type Data [32.41305735919529]
そこで本研究では,M-Attackを用いた攻撃アルゴリズムを提案する。
M-Attackをベースとした攻撃者は、与えられたデータサンプルの数値的特徴と分類的特徴の両方をわずかに摂動させることで、ターゲットの分類モデルの予測を誤解させようとする。
我々の生成した敵の例は潜在的な検出モデルを避けることができるため、攻撃は本当に惨めである。
論文 参考訳(メタデータ) (2022-10-17T20:17:21Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。