論文の概要: Large Language Models for Detecting Cyberattacks on Smart Grid Protective Relays
- arxiv url: http://arxiv.org/abs/2601.04443v1
- Date: Wed, 07 Jan 2026 23:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.950551
- Title: Large Language Models for Detecting Cyberattacks on Smart Grid Protective Relays
- Title(参考訳): スマートグリッド保護リレーにおける大規模言語モデルによるサイバー攻撃検出
- Authors: Ahmad Mohammad Saber, Saeed Jafari, Zhengmao Ouyang, Paul Budnarain, Amr Youssef, Deepa Kundur,
- Abstract要約: DistilBERTはTDRの信頼性を損なうことなく97.6%のサイバー攻撃を検出する。
DistilBERTは商用ワークステーションで6ミリ秒未満のレイテンシを実現する。
GPT-2とDistilBERT+LoRAは同等の性能を発揮する。
- 参考スコア(独自算出の注目度): 1.6809655100067975
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a large language model (LLM)-based framework for detecting cyberattacks on transformer current differential relays (TCDRs), which, if undetected, may trigger false tripping of critical transformers. The proposed approach adapts and fine-tunes compact LLMs such as DistilBERT to distinguish cyberattacks from actual faults using textualized multidimensional TCDR current measurements recorded before and after tripping. Our results demonstrate that DistilBERT detects 97.6% of cyberattacks without compromising TCDR dependability and achieves inference latency below 6 ms on a commercial workstation. Additional evaluations confirm the framework's robustness under combined time-synchronization and false-data-injection attacks, resilience to measurement noise, and stability across prompt formulation variants. Furthermore, GPT-2 and DistilBERT+LoRA achieve comparable performance, highlighting the potential of LLMs for enhancing smart grid cybersecurity. We provide the full dataset used in this study for reproducibility.
- Abstract(参考訳): 本稿では,変圧器電流差動リレー(TCDR)のサイバー攻撃を検出するための大規模言語モデル(LLM)に基づくフレームワークを提案する。
提案手法は、DistileBERTのような小型のLCMを用いて、トリップ前後に記録されたテキスト化された多次元TDR電流測定を用いて、実際の故障とサイバー攻撃を区別する。
以上の結果から,DistilBERTはTDRの信頼性を損なうことなく97.6%のサイバー攻撃を検知し,商用ワークステーションで6ミリ秒未満の遅延を予測できることがわかった。
さらなる評価では、時間同期と偽データ注入攻撃の組み合わせによるフレームワークの堅牢性、測定ノイズに対するレジリエンス、および迅速な定式化のバリエーション間の安定性が確認されている。
さらに、GPT-2とDistilBERT+LoRAは同等のパフォーマンスを達成し、スマートグリッドサイバーセキュリティを強化するLLMの可能性を強調した。
本研究で使用される全データセットを再現性のために提供します。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - Hybrid LLM-Enhanced Intrusion Detection for Zero-Day Threats in IoT Networks [6.087274577167399]
本稿では,GPT-2大言語モデル(LLM)の文脈理解機能と従来のシグネチャベース手法を統合した侵入検出手法を提案する。
本稿では,GPT-2による意味解析の適応性とシグネチャベースの手法の堅牢性を融合したハイブリッドIDSフレームワークを提案する。
代表的な侵入データセットを用いた実験により, 検出精度を6.3%向上し, 偽陽性率を9.0%低減し, ほぼリアルタイム応答性を維持した。
論文 参考訳(メタデータ) (2025-07-10T04:10:03Z) - Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays [3.4061238650474666]
本稿では,False Data Injection Attacks (FDIA) に使用される既存のディープラーニングベーススキーム (DLS) を,FDIA(False Data Injection Attacks) としてスマートグリッドで回避できることを示す。
本稿では, DLS 脆弱性を利用したFast Gradient Sign Method を利用した新たな攻撃フレームワークを提案する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにし,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を示した。
論文 参考訳(メタデータ) (2025-06-24T04:22:26Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Enhancing IoT Security with CNN and LSTM-Based Intrusion Detection Systems [0.23408308015481666]
提案モデルは,畳み込みニューラルネットワーク(CNN)と長短期記憶(LSTM)ディープラーニング(DL)モデルを組み合わせて構成する。
この融合により、IoTトラフィックをバイナリカテゴリ、良性、悪意のあるアクティビティに検出し、分類することが可能になる。
提案モデルの精度は98.42%,最小損失は0.0275である。
論文 参考訳(メタデータ) (2024-05-28T22:12:15Z) - LogShield: A Transformer-based APT Detection System Leveraging
Self-Attention [2.1256044139613772]
本稿では,変圧器における自己注意力を利用したAPT攻撃パターンの検出を目的としたフレームワークであるLogShieldを提案する。
カスタマイズした埋め込みレイヤを組み込んで、前兆グラフから派生したイベントシーケンスのコンテキストを効果的にキャプチャします。
LSTMモデルではF1スコアが96%,94%を上回っ,F1スコアが98%,95%であった。
論文 参考訳(メタデータ) (2023-11-09T20:43:15Z) - Revolutionizing Cyber Threat Detection with Large Language Models: A
privacy-preserving BERT-based Lightweight Model for IoT/IIoT Devices [3.340416780217405]
本稿では,インターネットネットワークにおけるサイバー脅威検出にBERT(Bidirectional Representations from Transformers)モデルを活用する,新たなアーキテクチャであるSecurityBERTを提案する。
我々の研究は、SecurityBERTがサイバー脅威検出において、畳み込みニューラルネットワーク(CNNIoT)やリカレントニューラルネットワーク(IoTRNN)など、従来の機械学習(ML)とディープラーニング(DL)の手法より優れていることを示した。
SecurityBERTは、14の異なる攻撃タイプを特定することで、98.2%の全体的な精度を達成し、ハイブリッドソリューションによって設定された過去の記録を上回った。
論文 参考訳(メタデータ) (2023-06-25T15:04:21Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。