論文の概要: Leveraging Large Language Models for Cybersecurity Risk Assessment -- A Case from Forestry Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2510.06343v1
- Date: Tue, 07 Oct 2025 18:07:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.134032
- Title: Leveraging Large Language Models for Cybersecurity Risk Assessment -- A Case from Forestry Cyber-Physical Systems
- Title(参考訳): 大規模言語モデルを活用したサイバーセキュリティリスク評価 -森林サイバー物理システムの事例-
- Authors: Fikret Mert Gültekin, Oscar Lilja, Ranim Khojah, Rebekka Wohlrab, Marvin Damschen, Mazen Mohamad,
- Abstract要約: 安全クリティカルなソフトウェアシステムでは、サイバーセキュリティ活動が不可欠になる。
多くのソフトウェアチームでは、サイバーセキュリティの専門家は完全に欠席しているか、少数の専門家しか代表していない。
これにより、脆弱性や脅威を評価する上で、サイバーセキュリティの専門家やエンジニアをサポートするツールの必要性が生じる。
- 参考スコア(独自算出の注目度): 2.767743577831705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In safety-critical software systems, cybersecurity activities become essential, with risk assessment being one of the most critical. In many software teams, cybersecurity experts are either entirely absent or represented by only a small number of specialists. As a result, the workload for these experts becomes high, and software engineers would need to conduct cybersecurity activities themselves. This creates a need for a tool to support cybersecurity experts and engineers in evaluating vulnerabilities and threats during the risk assessment process. This paper explores the potential of leveraging locally hosted large language models (LLMs) with retrieval-augmented generation to support cybersecurity risk assessment in the forestry domain while complying with data protection and privacy requirements that limit external data sharing. We performed a design science study involving 12 experts in interviews, interactive sessions, and a survey within a large-scale project. The results demonstrate that LLMs can assist cybersecurity experts by generating initial risk assessments, identifying threats, and providing redundancy checks. The results also highlight the necessity for human oversight to ensure accuracy and compliance. Despite trust concerns, experts were willing to utilize LLMs in specific evaluation and assistance roles, rather than solely relying on their generative capabilities. This study provides insights that encourage the use of LLM-based agents to support the risk assessment process of cyber-physical systems in safety-critical domains.
- Abstract(参考訳): 安全クリティカルなソフトウェアシステムでは、サイバーセキュリティ活動が不可欠となり、リスク評価が最も重要となる。
多くのソフトウェアチームでは、サイバーセキュリティの専門家は完全に欠席しているか、少数の専門家しか代表していない。
その結果、これらの専門家の作業負荷が高くなり、ソフトウェアエンジニア自身がサイバーセキュリティ活動を行う必要がある。
これにより、リスクアセスメントプロセス中の脆弱性や脅威を評価する上で、サイバーセキュリティの専門家やエンジニアをサポートするツールの必要性が生じる。
本稿では、データ保護と外部データ共有を制限するプライバシ要件に準拠しつつ、森林領域におけるサイバーセキュリティリスク評価を支援するために、ローカルにホストされた大規模言語モデル(LLM)を検索強化世代に活用する可能性について検討する。
大規模プロジェクトにおけるインタビュー,インタラクティブセッション,調査において,12名の専門家を対象としたデザインサイエンス研究を行った。
その結果、LSMは、初期リスクアセスメントを生成し、脅威を特定し、冗長性チェックを提供することで、サイバーセキュリティの専門家を支援することができることが示された。
結果は、正確性とコンプライアンスを確保するために、人間の監視の必要性も浮き彫りにしている。
信頼できる懸念にもかかわらず、専門家は、生産能力のみに頼るのではなく、特定の評価と支援にLLMを活用することを望んでいた。
本研究は、安全クリティカルドメインにおけるサイバー物理システムのリスクアセスメントプロセスを支援するために、LCMベースのエージェントの使用を促す洞察を提供する。
関連論文リスト
- LLM Cyber Evaluations Don't Capture Real-World Risk [0.0]
大規模言語モデル(LLMs)は、サイバーセキュリティアプリケーションにおける進歩を誇示している。
これらの能力によって引き起こされるリスクを評価するための現在の取り組みは、現実のインパクトを理解するという目標と不一致である、と我々は主張する。
論文 参考訳(メタデータ) (2025-01-31T05:33:48Z) - ChatNVD: Advancing Cybersecurity Vulnerability Assessment with Large Language Models [0.46873264197900916]
ChatNVDはLarge Language Models(LLM)を利用したサポートツールで、ソフトウェア脆弱性のアクセス可能でコンテキストに富んだ要約を生成する。
我々は,OpenAIによるGPT-4o Mini,MetaによるLLaMA 3,GoogleによるGemini 1.5 Proの3つの著名なLCMを利用して,ChatNVDの3つの変種を開発した。
その結果、GPT-4o Miniは他のモデルよりも優れており、92%以上の精度と低いエラー率を実現していることがわかった。
論文 参考訳(メタデータ) (2024-12-06T03:45:49Z) - CyberPal.AI: Empowering LLMs with Expert-Driven Cybersecurity Instructions [0.2999888908665658]
大規模言語モデル(LLM)は、非常に高度な自然言語処理(NLP)機能を持ち、様々なアプリケーションにまたがる汎用機能を提供する。
しかし、サイバーセキュリティのような複雑なドメイン固有のタスクへの応用は、しばしば重大な課題に直面している。
本研究では,SecKnowledgeとCyberPal.AIを紹介し,これらの課題に対処し,セキュリティ専門家のLSMを訓練する。
論文 参考訳(メタデータ) (2024-08-17T22:37:39Z) - SECURE: Benchmarking Large Language Models for Cybersecurity [0.6741087029030101]
大規模言語モデル(LLM)はサイバーセキュリティの応用の可能性を示しているが、幻覚や真実性の欠如といった問題により信頼性が低下している。
本研究は、これらのタスクに関する7つの最先端モデルを評価し、サイバーセキュリティの文脈におけるその強みと弱点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-05-30T19:35:06Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。