論文の概要: Baiting AI: Deceptive Adversary Against AI-Protected Industrial Infrastructures
- arxiv url: http://arxiv.org/abs/2601.08481v1
- Date: Tue, 13 Jan 2026 12:12:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.185337
- Title: Baiting AI: Deceptive Adversary Against AI-Protected Industrial Infrastructures
- Title(参考訳): ベイティングAI:AIが管理する産業インフラに対する認知的反対
- Authors: Aryan Pasikhani, Prosanta Gope, Yang Yang, Shagufta Mehnaz, Biplab Sikdar,
- Abstract要約: 本稿では,産業制御システム(ICS)を対象とした新しいサイバー攻撃ベクトルについて検討する。
我々の研究は、この攻撃戦略の堅牢性を明らかにし、DRLモデルが敵の目的のために操作される可能性に光を当てている。
- 参考スコア(独自算出の注目度): 13.191612618343099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores a new cyber-attack vector targeting Industrial Control Systems (ICS), particularly focusing on water treatment facilities. Developing a new multi-agent Deep Reinforcement Learning (DRL) approach, adversaries craft stealthy, strategically timed, wear-out attacks designed to subtly degrade product quality and reduce the lifespan of field actuators. This sophisticated method leverages DRL methodology not only to execute precise and detrimental impacts on targeted infrastructure but also to evade detection by contemporary AI-driven defence systems. By developing and implementing tailored policies, the attackers ensure their hostile actions blend seamlessly with normal operational patterns, circumventing integrated security measures. Our research reveals the robustness of this attack strategy, shedding light on the potential for DRL models to be manipulated for adversarial purposes. Our research has been validated through testing and analysis in an industry-level setup. For reproducibility and further study, all related materials, including datasets and documentation, are publicly accessible.
- Abstract(参考訳): 本稿では,産業制御システム(ICS)を対象とした新しいサイバー攻撃ベクトルについて検討する。
新たなマルチエージェントのDeep Reinforcement Learning (DRL) アプローチを開発することで、敵は、製品の品質を微妙に低下させ、フィールドアクチュエータの寿命を縮めるように設計された、ステルスで戦略的にタイムアウトされたウェアラブル攻撃を行う。
この洗練された手法は、DRL方法論を利用して、標的となるインフラに正確で有害な影響を及ぼすだけでなく、現代のAI駆動型防衛システムによる検出を回避している。
適切なポリシーを開発し、実装することで、攻撃者は通常の運用パターンとシームレスに衝突し、統合されたセキュリティ対策を回避できる。
我々の研究は、この攻撃戦略の堅牢性を明らかにし、DRLモデルが敵の目的のために操作される可能性に光を当てている。
私たちの研究は、業界レベルでのテストと分析を通じて検証されています。
再現性とさらなる研究のために、データセットやドキュメントを含むすべての関連資料が一般に公開されている。
関連論文リスト
- Enhancing Security in Deep Reinforcement Learning: A Comprehensive Survey on Adversarial Attacks and Defenses [0.0]
本稿では、DRLの基本的枠組みを紹介し、複雑で変化する環境において直面する主なセキュリティ課題を分析する。
本研究は, 対人訓練, 競争訓練, 頑健な学習, 対人検出, 防衛蒸留, その他の防衛技術を含む, 現行の強靭性訓練戦略を体系的に要約する。
論文 参考訳(メタデータ) (2025-10-23T08:04:57Z) - Exploiting Web Search Tools of AI Agents for Data Exfiltration [0.46664938579243564]
大規模言語モデル(LLM)は、自然言語処理からWeb検索のような動的まで、複雑なタスクの実行に日常的に使用されている。
ツールコールと検索拡張生成(RAG)の使用により、LLMは機密性の高い企業データの処理と取得が可能になり、その機能と悪用に対する脆弱性の両方を増幅する。
我々は、現在のLLMが間接的にインジェクションアタックを誘導し、どのパラメーター、モデルサイズや製造元が脆弱性を形作り、どの攻撃方法が最も効果的かを分析する。
論文 参考訳(メタデータ) (2025-10-10T07:39:01Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Robust Intrusion Detection System with Explainable Artificial Intelligence [0.0]
逆入力は、標準インターフェイスを通じて機械学習(ML)モデルを利用することができる。
敵の訓練のような従来の防御は、計算的な用語で費用がかかるため、しばしばリアルタイム検出の提供に失敗する。
eXplainable Artificial Intelligence (XAI) を用いた敵攻撃の検出と緩和のための新しい戦略を提案する。
論文 参考訳(メタデータ) (2025-03-07T10:31:59Z) - Modern DDoS Threats and Countermeasures: Insights into Emerging Attacks and Detection Strategies [49.57278643040602]
分散型サービス拒否(DDoS)攻撃は、オンラインサービスとインフラストラクチャに対する重大な脅威として継続する。
本稿は、過去10年間のDDoS攻撃と検出戦略の包括的調査を提供する。
論文 参考訳(メタデータ) (2025-02-27T11:22:25Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - Attack Rules: An Adversarial Approach to Generate Attacks for Industrial
Control Systems using Machine Learning [7.205662414865643]
ルールマイニングに基づくアタック生成手法を提案する。
提案手法は、これまでは見られなかった新たな攻撃ベクトルの大部分を構成する30万以上の攻撃パターンを生成することができた。
論文 参考訳(メタデータ) (2021-07-11T20:20:07Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。