論文の概要: INVARLLM: LLM-assisted Physical Invariant Extraction for Cyber-Physical Systems Anomaly Detection
- arxiv url: http://arxiv.org/abs/2411.10918v2
- Date: Mon, 02 Jun 2025 16:27:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.43944
- Title: INVARLLM: LLM-assisted Physical Invariant Extraction for Cyber-Physical Systems Anomaly Detection
- Title(参考訳): INVARLLM:サイバー物理系異常検出のためのLCM支援物理不変抽出
- Authors: Danial Abshari, Peiran Shi, Chenglong Fu, Meera Sridhar, Xiaojiang Du,
- Abstract要約: サイバー物理システム(CPS)は、物理法に違反しているサイバー物理攻撃に対して脆弱である。
大規模言語モデル(LLM)を用いて,CPS文書から意味情報を抽出し,物理的不変量を生成するハイブリッドフレームワークを提案する。
このアプローチは、LLMセマンティック理解と経験的検証を組み合わせて、解釈可能性と信頼性の両方を保証する。
- 参考スコア(独自算出の注目度): 13.192308838452927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber-Physical Systems (CPS) are vulnerable to cyber-physical attacks that violate physical laws. While invariant-based anomaly detection is effective, existing methods are limited: data-driven approaches lack semantic context, and physics-based models require extensive manual work. We propose INVARLLM, a hybrid framework that uses large language models (LLMs) to extract semantic information from CPS documentation and generate physical invariants, then validates these against real system data using a PCMCI+-inspired K-means method. This approach combines LLM semantic understanding with empirical validation to ensure both interpretability and reliability. We evaluate INVARLLM on SWaT and WADI datasets, achieving 100% precision in anomaly detection with no false alarms, outperforming all existing methods. Our results demonstrate that integrating LLM-derived semantics with statistical validation provides a scalable and dependable solution for CPS security.
- Abstract(参考訳): サイバー物理システム(CPS)は、物理法に違反しているサイバー物理攻撃に対して脆弱である。
不変ベースの異常検出は有効であるが、既存の手法は限定的であり、データ駆動型アプローチは意味的な文脈を欠いている。
InVARLLMは,大規模言語モデル(LLM)を用いてCPS文書から意味情報を抽出し,物理的不変量を生成するハイブリッドフレームワークである。
このアプローチは、LLMセマンティック理解と経験的検証を組み合わせて、解釈可能性と信頼性の両方を保証する。
我々は,SWATおよびWADIデータセット上でのINVARLLMを評価し,誤報のない異常検出において100%精度を達成し,既存手法よりも優れていた。
以上の結果から,LCM由来のセマンティクスを統計的検証と統合することで,CPSセキュリティのスケーラブルで信頼性の高いソリューションが実現できることが示唆された。
関連論文リスト
- Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Few-shot Detection of Anomalies in Industrial Cyber-Physical System via
Prototypical Network and Contrastive Learning [5.9990208840809345]
本稿では,プロトタイプネットワークとコントラスト学習に基づく数ショットの異常検出モデルを提案する。
本モデルでは,異常信号を特定するために,F1スコアを大幅に改善し,誤警報率(FAR)を低減できることを示す。
論文 参考訳(メタデータ) (2023-02-21T11:09:36Z) - Semi-supervised detection of structural damage using Variational
Autoencoder and a One-Class Support Vector Machine [0.0]
本稿では,構造異常を検出するためのデータ駆動型手法を用いた半教師付き手法を提案する。
IASC-ASCE 構造健康モニタリングタスクグループによって9つの損傷シナリオで試験されたスケールスチール構造に適用した。
論文 参考訳(メタデータ) (2022-10-11T07:39:08Z) - Design Methodology for Deep Out-of-Distribution Detectors in Real-Time
Cyber-Physical Systems [5.233831361879669]
アウト・オブ・ディストリビューション(OOD)検出器はMLモデルと並行して動作し、フラグ入力は望ましくない結果をもたらす可能性がある。
本研究は,組込みアプリケーションの精度および応答時間要求を満たすため,深部OOD検出器をチューニングするための設計手法を提案する。
論文 参考訳(メタデータ) (2022-07-29T14:06:27Z) - Inter-Domain Fusion for Enhanced Intrusion Detection in Power Systems:
An Evidence Theoretic and Meta-Heuristic Approach [0.0]
ICSネットワークにおけるIDSによる不正な警告は、経済的および運用上の重大な損害をもたらす可能性がある。
本研究は,CPS電力系統における誤警報の事前分布を伴わずに不確実性に対処し,誤警報を低減する手法を提案する。
論文 参考訳(メタデータ) (2021-11-20T00:05:39Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。