論文の概要: Investigating cybersecurity incidents using large language models in latest-generation wireless networks
- arxiv url: http://arxiv.org/abs/2504.13196v1
- Date: Mon, 14 Apr 2025 09:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 21:10:15.841816
- Title: Investigating cybersecurity incidents using large language models in latest-generation wireless networks
- Title(参考訳): 次世代無線ネットワークにおける大規模言語モデルを用いたサイバーセキュリティ事件の調査
- Authors: Leonid Legashev, Arthur Zhigalov,
- Abstract要約: Gemma-7bモデルは、Precision = 0.89、Recall = 0.89、F1-Score = 0.89に従って、最高の結果を示す。
ネットワーク脅威のバイナリ分類器と統合された大規模言語モデルは、サイバーセキュリティインシデント調査の分野における実践的応用に大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The purpose of research: Detection of cybersecurity incidents and analysis of decision support and assessment of the effectiveness of measures to counter information security threats based on modern generative models. The methods of research: Emulation of signal propagation data in MIMO systems, synthesis of adversarial examples, execution of adversarial attacks on machine learning models, fine tuning of large language models for detecting adversarial attacks, explainability of decisions on detecting cybersecurity incidents based on the prompts technique. Scientific novelty: A binary classification of data poisoning attacks was performed using large language models, and the possibility of using large language models for investigating cybersecurity incidents in the latest generation wireless networks was investigated. The result of research: Fine-tuning of large language models was performed on the prepared data of the emulated wireless network segment. Six large language models were compared for detecting adversarial attacks, and the capabilities of explaining decisions made by a large language model were investigated. The Gemma-7b model showed the best results according to the metrics Precision = 0.89, Recall = 0.89 and F1-Score = 0.89. Based on various explainability prompts, the Gemma-7b model notes inconsistencies in the compromised data under study, performs feature importance analysis and provides various recommendations for mitigating the consequences of adversarial attacks. Large language models integrated with binary classifiers of network threats have significant potential for practical application in the field of cybersecurity incident investigation, decision support and assessing the effectiveness of measures to counter information security threats.
- Abstract(参考訳): 研究の目的は、サイバーセキュリティインシデントの検出と意思決定支援の分析と、現代の生成モデルに基づく情報セキュリティ脅威に対する対策の有効性の評価である。
研究方法:MIMOシステムにおける信号伝搬データのエミュレーション、敵の例の合成、機械学習モデルに対する敵の攻撃の実行、敵の攻撃を検出するための大規模言語モデルの微調整、プロンプト技術に基づくサイバーセキュリティインシデント検出の決定可能性。
科学的ノベルティ: 大規模言語モデルを用いてデータ中毒攻撃のバイナリ分類を行い, 次世代無線ネットワークにおけるサイバーセキュリティ事件の調査に大規模言語モデルを使用することの可能性を検討した。
実験の結果,エミュレートされた無線ネットワークセグメントのデータに基づいて,大規模言語モデルの微調整を行った。
6つの大きな言語モデルを比較して敵攻撃を検知し, 大規模言語モデルによる決定を説明する能力について検討した。
Gemma-7bモデルでは、Precision = 0.89、Recall = 0.89、F1-Score = 0.89に従って、最高の結果を示した。
Gemma-7bモデルでは、様々な説明可能性のプロンプトに基づいて、研究中の妥協データの不整合を指摘し、特徴重要度分析を行い、敵攻撃の結果を緩和するための様々な推奨事項を提供する。
ネットワーク脅威のバイナリ分類器と統合された大規模な言語モデルは、サイバーセキュリティインシデント調査、意思決定支援、情報セキュリティ脅威に対する対策の有効性評価の分野での実践的な応用に有意義な可能性を秘めている。
関連論文リスト
- Training Large Language Models for Advanced Typosquatting Detection [0.0]
Typosquattingは、ユーザーを騙し、マルウェアを配布し、フィッシング攻撃を行うためにURLをタイプする際のヒューマンエラーを利用するサイバー脅威である。
本研究では,大型言語モデル (LLM) を利用したタイポスクワット検出手法を提案する。
実験結果から, Phi-4 14Bモデルは他の試験モデルよりも優れており, 精度は98%, トレーニングサンプルは数千点であった。
論文 参考訳(メタデータ) (2025-03-28T13:16:27Z) - Reliable Feature Selection for Adversarially Robust Cyber-Attack Detection [0.0]
この研究は、複数のメソッドを組み合わせて複数のネットワークデータセットに適用する機能選択とコンセンサスプロセスを示す。
データ多様性が向上し、最高の時間関連機能とより具体的な機能セットを選択し、敵のトレーニングを実行することで、MLモデルはより逆向きに堅牢な一般化を実現することができた。
論文 参考訳(メタデータ) (2024-04-05T16:01:21Z) - Humanizing Machine-Generated Content: Evading AI-Text Detection through Adversarial Attack [24.954755569786396]
そこで本研究では,機械生成コンテンツの小さな摂動を回避して検出を回避すべく,より広いレベルの敵攻撃のためのフレームワークを提案する。
我々は、ホワイトボックスとブラックボックスの2つの攻撃設定を検討し、現在の検出モデルのロバスト性を高める可能性を評価するために、動的シナリオにおける逆学習を採用する。
実験の結果、現在の検出モデルは10秒で妥協でき、機械が生成したテキストを人間の書き起こしコンテンツとして誤分類する結果となった。
論文 参考訳(メタデータ) (2024-04-02T12:49:22Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SecureBERT and LLAMA 2 Empowered Control Area Network Intrusion
Detection and Classification [2.824211356106516]
我々は、CAN侵入検知のための2つの異なるモデル、CAN-SecureBERTとCAN-LLAMA2を開発した。
Can-LLAMA2モデルは、バランスの取れた精度、精度検出率、F1スコア、そして驚くほど低い3.10e-6の誤警報率で、例外的なパフォーマンス 0.999993 を達成することで、最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-19T23:49:08Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。