論文の概要: Selecting Cybersecurity Requirements: Effects of LLM Use and Professional Software Development Experience
- arxiv url: http://arxiv.org/abs/2510.04274v1
- Date: Sun, 05 Oct 2025 16:29:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.553382
- Title: Selecting Cybersecurity Requirements: Effects of LLM Use and Professional Software Development Experience
- Title(参考訳): サイバーセキュリティ要件の選択: LLMの使用と専門的ソフトウェア開発経験の影響
- Authors: Damjan Fujs, Damjan Vavpotič, Tomaž Hovelja, Marko Poženel,
- Abstract要約: 本研究では,大規模言語モデル(LLM)へのアクセスと,様々なレベルの専門的ソフトウェア開発経験が,Webアプリケーションに対するサイバーセキュリティ要件の優先順位付けにどのように影響するかを検討する。
大学院生23人がMoSCoW法を用いてセキュリティ要件(SR)を優先する研究に参加した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates how access to Large Language Models (LLMs) and varying levels of professional software development experience affect the prioritization of cybersecurity requirements for web applications. Twenty-three postgraduate students participated in a research study to prioritize security requirements (SRs) using the MoSCoW method and subsequently rated their proposed solutions against multiple evaluation criteria. We divided participants into two groups (one with and the other without access to LLM support during the task). Results showed no significant differences related to LLM use, suggesting that access to LLMs did not noticeably influence how participants evaluated cybersecurity solutions. However, statistically significant differences emerged between experience groups for certain criteria, such as estimated cost to develop a feature, perceived impact on user experience, and risk assessment related to non-implementation of the proposed feature. Participants with more professional experience tended to provide higher ratings for user experience impact and lower risk estimates.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)へのアクセスと,様々なレベルの専門的ソフトウェア開発経験が,Webアプリケーションに対するサイバーセキュリティ要件の優先順位付けにどのように影響するかを検討する。
23人の大学院生がMoSCoW法を用いてセキュリティ要件(SR)を優先する研究に参加し、その後、複数の評価基準に対して提案されたソリューションを評価した。
参加者は2つのグループに分けた。
その結果, LLMの使用に関する有意な違いは認められず, LLMへのアクセスは, 参加者のサイバーセキュリティソリューションの評価方法に顕著な影響を与えなかったことが示唆された。
しかし,機能開発コストの推定,ユーザエクスペリエンスへの影響の認識,提案した機能の非実装に関するリスク評価など,特定の基準に対する経験群間で統計的に有意な差異が生じた。
プロフェッショナルな経験を積んだ参加者は、ユーザエクスペリエンスへの影響とリスク見積の低さを高く評価する傾向があった。
関連論文リスト
- The Digital Cybersecurity Expert: How Far Have We Come? [49.89857422097055]
我々は,サイバーセキュリティの専門家が期待する345の知識ポイントに基づいた,きめ細かいサイバーセキュリティ評価フレームワークであるCSEBenchmarkを開発した。
CSEBenchmarkで12のポピュラーな大言語モデル(LLM)を評価し、最高のパフォーマンスモデルでさえ全体の精度は85.42%に過ぎなかった。
各LSMにおける特定の知識ギャップを特定し,対処することにより,事前の誤り予測の修正において最大84%の改善が達成される。
論文 参考訳(メタデータ) (2025-04-16T05:36:28Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - CoPS: Empowering LLM Agents with Provable Cross-Task Experience Sharing [70.25689961697523]
クロスタスク体験の共有と選択によるシーケンシャル推論を強化する一般化可能なアルゴリズムを提案する。
我々の研究は、既存のシーケンシャルな推論パラダイムのギャップを埋め、タスク間体験の活用の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T03:59:53Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Ollabench: Evaluating LLMs' Reasoning for Human-centric Interdependent Cybersecurity [0.0]
大規模言語モデル(LLM)は、複雑な相互依存型サイバーセキュリティシステムを表現することによってエージェントベースモデリングを強化する可能性がある。
既存の評価フレームワークは、しばしば、相互依存型サイバーセキュリティに不可欠なヒューマンファクターと認知コンピューティング能力を見落としている。
シナリオベースの情報セキュリティコンプライアンスや非コンプライアンス問題に答える上で,LLMの正確性,無駄性,一貫性を評価する新しい評価フレームワークであるOllaBenchを提案する。
論文 参考訳(メタデータ) (2024-06-11T00:35:39Z) - SECURE: Benchmarking Large Language Models for Cybersecurity [0.6741087029030101]
大規模言語モデル(LLM)はサイバーセキュリティの応用の可能性を示しているが、幻覚や真実性の欠如といった問題により信頼性が低下している。
本研究は、これらのタスクに関する7つの最先端モデルを評価し、サイバーセキュリティの文脈におけるその強みと弱点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-05-30T19:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。