論文の概要: AttackLLM: LLM-based Attack Pattern Generation for an Industrial Control System
- arxiv url: http://arxiv.org/abs/2504.04187v1
- Date: Sat, 05 Apr 2025 14:11:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:12:55.059561
- Title: AttackLLM: LLM-based Attack Pattern Generation for an Industrial Control System
- Title(参考訳): アタックLLM:産業制御システムのためのLLMを用いた攻撃パターン生成
- Authors: Chuadhry Mujeeb Ahmed,
- Abstract要約: 悪意のある例は、攻撃中の機械学習アルゴリズムの堅牢性を評価する上で不可欠である。
既存のデータセットは、実践者のドメインの専門知識によって制限されることが多い。
本稿では,データ中心の手法と設計中心の手法を組み合わせて,攻撃パターンを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 3.0380814092788984
- License:
- Abstract: Malicious examples are crucial for evaluating the robustness of machine learning algorithms under attack, particularly in Industrial Control Systems (ICS). However, collecting normal and attack data in ICS environments is challenging due to the scarcity of testbeds and the high cost of human expertise. Existing datasets are often limited by the domain expertise of practitioners, making the process costly and inefficient. The lack of comprehensive attack pattern data poses a significant problem for developing robust anomaly detection methods. In this paper, we propose a novel approach that combines data-centric and design-centric methodologies to generate attack patterns using large language models (LLMs). Our results demonstrate that the attack patterns generated by LLMs not only surpass the quality and quantity of those created by human experts but also offer a scalable solution that does not rely on expensive testbeds or pre-existing attack examples. This multi-agent based approach presents a promising avenue for enhancing the security and resilience of ICS environments.
- Abstract(参考訳): 悪意のある例は、特に産業制御システム(ICS)において、攻撃中の機械学習アルゴリズムの堅牢性を評価するために重要である。
しかし,テストベッドの不足や人的知識のコストが高いため,ICS環境での正常・攻撃的なデータ収集は困難である。
既存のデータセットは、しばしば実践者のドメインの専門知識によって制限され、プロセスがコストと非効率になる。
包括的攻撃パターンデータの欠如は、堅牢な異常検出手法を開発する上で重要な問題となる。
本稿では,大規模言語モデル(LLM)を用いた攻撃パターンを生成するために,データ中心と設計中心の方法論を組み合わせた新しい手法を提案する。
以上の結果から,LSMが生成する攻撃パターンは,人的専門家が生成する攻撃の質や量を上回るだけでなく,高価なテストベッドや既存の攻撃例に依存しないスケーラブルなソリューションも提供できることが示唆された。
このマルチエージェントベースのアプローチは、ICS環境のセキュリティとレジリエンスを高めるための有望な道を示す。
関連論文リスト
- Breaking Focus: Contextual Distraction Curse in Large Language Models [68.4534308805202]
大規模言語モデル(LLM)の重大な脆弱性について検討する。
この現象は、セマンティック・コヒーレントだが無関係な文脈で修正された質問に対して、モデルが一貫した性能を維持することができないときに発生する。
本稿では,CDVの例を自動生成する効率的な木探索手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - Learning in Multiple Spaces: Few-Shot Network Attack Detection with Metric-Fused Prototypical Networks [47.18575262588692]
本稿では,数発の攻撃検出に適した新しいマルチスペースプロトタイプ学習フレームワークを提案する。
Polyakの平均的なプロトタイプ生成を活用することで、このフレームワークは学習プロセスを安定化し、稀でゼロデイの攻撃に効果的に適応する。
ベンチマークデータセットによる実験結果から、MSPLは、目立たない、新しい攻撃タイプを検出する従来のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T00:09:46Z) - Free Record-Level Privacy Risk Evaluation Through Artifact-Based Methods [6.902279764206365]
メンバーシップ推論攻撃(MIA)は機械学習モデルにおけるプライバシリスクを評価するために広く利用されている。
最先端の手法では、ターゲットモデルと同じアーキテクチャで数百のシャドウモデルをトレーニングする必要があります。
そこで本研究では,トレーニングプロセス中に自然に入手可能なアーティファクトを解析することにより,メンバシップ推論攻撃に最も脆弱なトレーニングサンプルを同定する手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T18:04:41Z) - Robust Synthetic Data-Driven Detection of Living-Off-the-Land Reverse Shells [14.710331873072146]
LOTL(Living-off-the-land)技術は、セキュリティ運用において大きな課題となる。
セキュリティ情報およびイベント管理(SIEM)ソリューションとして,サイバー防衛システムのための堅牢な拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Detection of Insider Attacks in Distributed Projected Subgradient
Algorithms [11.096339082411882]
汎用ニューラルネットワークは悪質なエージェントの検出とローカライズに特に適していることを示す。
本稿では,連合学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用することを提案する。
シミュレーションでは,AIに基づく手法の有効性と有効性を検証するために,最小二乗問題を考える。
論文 参考訳(メタデータ) (2021-01-18T08:01:06Z) - Multimodal Safety-Critical Scenarios Generation for Decision-Making
Algorithms Evaluation [23.43175124406634]
既存のニューラルネットワークベースの自律システムは、敵の攻撃に対して脆弱であることが示されている。
意思決定アルゴリズムの評価のためのフローベースマルチモーダル安全クリティカルシナリオジェネレータを提案する。
生成したトラフィックシナリオを用いて6つの強化学習アルゴリズムを評価し,その堅牢性に関する実証的な結論を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。