論文の概要: Multi-Stage Retrieval for Operational Technology Cybersecurity Compliance Using Large Language Models: A Railway Casestudy
- arxiv url: http://arxiv.org/abs/2504.14044v1
- Date: Fri, 18 Apr 2025 19:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 05:41:09.86157
- Title: Multi-Stage Retrieval for Operational Technology Cybersecurity Compliance Using Large Language Models: A Railway Casestudy
- Title(参考訳): 大規模言語モデルを用いた運用技術サイバーセキュリティコンプライアンスのための多段階検索:鉄道事例研究
- Authors: Regan Bolton, Mohammadreza Sheikhfathollahi, Simon Parkinson, Dan Basher, Howard Parkinson,
- Abstract要約: 本稿では,Large Language Models(LLM)と多段階検索を活用し,コンプライアンス検証のプロセスを強化するシステムを提案する。
まず, OTCSコンプライアンスクエリに応答するベースラインコンプライアンスアーキテクチャ(BCA)を評価し, 並列コンプライアンスアーキテクチャ(PCA)と呼ばれる拡張アプローチを開発した。
我々は,PCAがコンプライアンス検証における正当性と理性の両方を著しく改善することを実証した。
- 参考スコア(独自算出の注目度): 1.1010026679581653
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Operational Technology Cybersecurity (OTCS) continues to be a dominant challenge for critical infrastructure such as railways. As these systems become increasingly vulnerable to malicious attacks due to digitalization, effective documentation and compliance processes are essential to protect these safety-critical systems. This paper proposes a novel system that leverages Large Language Models (LLMs) and multi-stage retrieval to enhance the compliance verification process against standards like IEC 62443 and the rail-specific IEC 63452. We first evaluate a Baseline Compliance Architecture (BCA) for answering OTCS compliance queries, then develop an extended approach called Parallel Compliance Architecture (PCA) that incorporates additional context from regulatory standards. Through empirical evaluation comparing OpenAI-gpt-4o and Claude-3.5-haiku models in these architectures, we demonstrate that the PCA significantly improves both correctness and reasoning quality in compliance verification. Our research establishes metrics for response correctness, logical reasoning, and hallucination detection, highlighting the strengths and limitations of using LLMs for compliance verification in railway cybersecurity. The results suggest that retrieval-augmented approaches can significantly improve the efficiency and accuracy of compliance assessments, particularly valuable in an industry facing a shortage of cybersecurity expertise.
- Abstract(参考訳): オペレーショナル・テクノロジー・サイバーセキュリティ(OTCS)は、鉄道などの重要なインフラにおける主要な課題であり続けている。
これらのシステムは、デジタル化による悪意ある攻撃に対してますます脆弱になっているため、これらの安全クリティカルなシステムを保護するためには、効果的なドキュメントとコンプライアンスプロセスが不可欠である。
本稿では,Large Language Models(LLM)と多段階検索を利用して,IEC 62443やIEC 63452などの標準に対するコンプライアンス検証プロセスを強化するシステムを提案する。
まず, OTCSコンプライアンスクエリに応答するベースラインコンプライアンスアーキテクチャ(BCA)を評価し, 規制基準から追加のコンテキストを取り入れたParallel Compliance Architecture(PCA)と呼ばれる拡張アプローチを開発した。
これらのアーキテクチャにおけるOpenAI-gpt-4oとClaude-3.5-haikuモデルの比較実験により、PCAはコンプライアンス検証における正確性と推論品質の両方を著しく改善することを示した。
本研究は、鉄道サイバーセキュリティにおけるコンプライアンス検証にLLMを使用する際の長所と短所を強調し、応答正当性、論理的推論、幻覚検出の指標を確立する。
その結果、検索強化アプローチはコンプライアンスアセスメントの効率と正確性を大幅に向上させ、特にサイバーセキュリティの専門知識が不足している業界で有用であることが示唆された。
関連論文リスト
- In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Performance Analysis and Industry Deployment of Post-Quantum Cryptography Algorithms [0.8602553195689513]
NIST(National Institute of Standards and Technology)は、鍵交換とデジタル署名のための標準化されたPQCアルゴリズムとして、CRYSTALS-KyberとCRYSTALS-Dilithiumを選択した。
本研究は,暗号処理における実行時間をベンチマークすることで,これらのアルゴリズムの総合的な性能解析を行う。
その結果, Kyber と Dilithium は効率的な実行時間を実現し,RSA や ECDSA などの古典暗号方式を同等のセキュリティレベルで上回っていることがわかった。
論文 参考訳(メタデータ) (2025-03-17T09:06:03Z) - Enforcing Cybersecurity Constraints for LLM-driven Robot Agents for Online Transactions [0.0]
大規模言語モデル(LLM)をオンライントランザクションを実行するための自律ロボットエージェントに統合することは、重大なサイバーセキュリティ上の課題を引き起こす。
この研究は、データ漏洩、トランザクション詐欺、システム操作に関連するリスクを軽減するために、堅牢なサイバーセキュリティの制約を強制することを目的としている。
論文 参考訳(メタデータ) (2025-03-17T01:01:10Z) - Beyond Benchmarks: On The False Promise of AI Regulation [13.125853211532196]
有効な科学的規制は、観測可能なテスト結果と将来のパフォーマンスを結びつける因果理論を必要とすることを示す。
本研究では,学習データから複雑な統計的パターンを明示的な因果関係なく学習する深層学習モデルにおいて,そのような保証を妨げていることを示す。
論文 参考訳(メタデータ) (2025-01-26T22:43:07Z) - Adaptive PII Mitigation Framework for Large Language Models [2.694044579874688]
本稿では,PII(Personally Identible Information)とSPI(Sensitive Personal Information)のリスク軽減のための適応システムを提案する。
このシステムは、高度なNLP技術、文脈認識分析、およびポリシー駆動マスキングを使用して、規制コンプライアンスを保証する。
ベンチマークではシステムの有効性が強調され、パスポート番号のF1スコアは0.95である。
論文 参考訳(メタデータ) (2025-01-21T19:22:45Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - A Novel Generative AI-Based Framework for Anomaly Detection in Multicast Messages in Smart Grid Communications [0.0]
デジタル変電所におけるサイバーセキュリティ侵害は、電力系統の運用の安定性と信頼性に重大な課題をもたらす。
本稿では,マルチキャストメッセージのデータセットにおける異常検出(AD)のためのタスク指向対話システムを提案する。
潜在的なエラーが低く、人間の推奨するサイバーセキュリティガイドラインを考えるプロセスよりもスケーラビリティと適応性が向上します。
論文 参考訳(メタデータ) (2024-06-08T13:28:50Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。