論文の概要: Attack Pattern Mining to Discover Hidden Threats to Industrial Control Systems
- arxiv url: http://arxiv.org/abs/2508.04561v1
- Date: Wed, 06 Aug 2025 15:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.795861
- Title: Attack Pattern Mining to Discover Hidden Threats to Industrial Control Systems
- Title(参考訳): 産業制御システムへの隠れ脅威を明らかにするための攻撃パターンマイニング
- Authors: Muhammad Azmi Umer, Chuadhry Mujeeb Ahmed, Aditya Mathur, Muhammad Taha Jilani,
- Abstract要約: 本研究は,産業制御システム(ICS)のセキュリティにおける攻撃パターンマイニングの検証に焦点を当てる。
我々はICSの攻撃パターンを生成するためのデータ駆動手法を提案している。
提案手法は, 運用水処理プラントから収集したデータから10万以上の攻撃パターンを生成するために用いられている。
- 参考スコア(独自算出の注目度): 5.244448645685142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on validation of attack pattern mining in the context of Industrial Control System (ICS) security. A comprehensive security assessment of an ICS requires generating a large and variety of attack patterns. For this purpose we have proposed a data driven technique to generate attack patterns for an ICS. The proposed technique has been used to generate over 100,000 attack patterns from data gathered from an operational water treatment plant. In this work we present a detailed case study to validate the attack patterns.
- Abstract(参考訳): 本研究は,産業制御システム(ICS)のセキュリティにおける攻撃パターンマイニングの検証に焦点を当てる。
ICSの総合的なセキュリティ評価では、大規模で多様な攻撃パターンを生成する必要がある。
そこで本研究では,ICSの攻撃パターンを生成するためのデータ駆動手法を提案する。
提案手法は, 運用水処理プラントから収集したデータから10万以上の攻撃パターンを生成するために用いられている。
本研究は,攻撃パターンを検証するための詳細な事例研究である。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - Adversarial Sample Generation for Anomaly Detection in Industrial Control Systems [2.6513941799808873]
我々はJacobian Saliency Map Attack (JSMA) を用いて敵のサンプルを生成する。
本研究は,産業制御システムに対する幅広い実攻撃に対処するために,敵サンプルの一般化と拡張性を検証した。
敵のサンプルを用いて訓練されたモデルは、訓練中に使用されていない実世界の攻撃データに対して95%の精度で攻撃を検出した。
論文 参考訳(メタデータ) (2025-05-06T02:27:17Z) - AttackLLM: LLM-based Attack Pattern Generation for an Industrial Control System [3.0380814092788984]
悪意のある例は、攻撃中の機械学習アルゴリズムの堅牢性を評価する上で不可欠である。
既存のデータセットは、実践者のドメインの専門知識によって制限されることが多い。
本稿では,データ中心の手法と設計中心の手法を組み合わせて,攻撃パターンを生成する手法を提案する。
論文 参考訳(メタデータ) (2025-04-05T14:11:47Z) - Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - A Comparative Study of Watering Hole Attack Detection Using Supervised Neural Network [0.0]
本研究では、これらの攻撃を検知・防止するために、教師付きニューラルネットワークを用いた「水穴攻撃」として知られる悪質な戦術について検討する。
ニューラルネットワークは、そのような攻撃に関連するウェブサイトの行動とネットワークトラフィックのパターンを特定する。
予防に関して言えば、このモデルは95%の攻撃をうまく停止し、堅牢なユーザー保護を提供する。
論文 参考訳(メタデータ) (2023-11-25T13:30:03Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Attack Rules: An Adversarial Approach to Generate Attacks for Industrial
Control Systems using Machine Learning [7.205662414865643]
ルールマイニングに基づくアタック生成手法を提案する。
提案手法は、これまでは見られなかった新たな攻撃ベクトルの大部分を構成する30万以上の攻撃パターンを生成することができた。
論文 参考訳(メタデータ) (2021-07-11T20:20:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。