論文の概要: Evaluating Organization Security: User Stories of European Union NIS2 Directive
- arxiv url: http://arxiv.org/abs/2504.19222v1
- Date: Sun, 27 Apr 2025 13:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.186491
- Title: Evaluating Organization Security: User Stories of European Union NIS2 Directive
- Title(参考訳): 組織のセキュリティを評価する - EU NIS2ディレクティブのユーザストーリ
- Authors: Mari Seeba, Magnus Valgre, Raimundas Matulevičius,
- Abstract要約: NIS2指令はEU加盟国に対して、一貫して高いレベルのサイバーセキュリティを確保することを要求する。
NIS2ユーザストーリーは,組織における情報セキュリティのレベルを評価する上でどのように役立つかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The NIS2 directive requires EU Member States to ensure a consistently high level of cybersecurity by setting risk-management measures for essential and important entities. Evaluations are necessary to assess whether the required security level is met. This involves understanding the needs and goals of different personas defined by NIS2, who benefit from evaluation results. In this paper, we consider how NIS2 user stories support the evaluation of the level of information security in organizations. Using requirements elicitation principles, we extracted the legal requirements from NIS2 from our narrowed scope, identified six key personas and their goals, formulated user stories based on the gathered information, and validated the usability and relevance of the user stories with security evaluation instruments or methods we found from the literature. The defined user stories help to adjust existing instruments and methods of assessing the security level to comply with NIS2. On the other hand, user stories enable us to see the patterns related to security evaluation when developing new NIS2-compliant security evaluation methods to optimize the administrative burden of entities.
- Abstract(参考訳): NIS2指令は、EU加盟国に対して、本質的かつ重要な機関に対するリスク管理措置を設定することによって、一貫して高いレベルのサイバーセキュリティを確保することを要求する。
必要なセキュリティレベルが満たされているかどうかを評価するには、評価が必要である。
これは、評価結果の恩恵を受けるNIS2によって定義された異なるペルソナのニーズと目標を理解することを含む。
本稿では,NIS2ユーザストーリーが組織における情報セキュリティのレベルを評価する上でどのように役立つかを検討する。
要件適用原則を用いて、狭義のスコープからNIS2から法的要件を抽出し、6つのキーペルソナとその目標を特定し、収集した情報に基づいてユーザストーリーを定式化し、文献から得られたセキュリティ評価手段や手法を用いてユーザストーリーの有用性と妥当性を検証した。
定義されたユーザストーリーは、NIS2に準拠したセキュリティレベルを評価する既存の機器や方法を調整するのに役立つ。
一方,NIS2 に準拠した新たなセキュリティ評価手法を開発する際に,ユーザストーリーがセキュリティ評価に関連するパターンを把握し,エンティティの管理負担を最適化する。
関連論文リスト
- strideSEA: A STRIDE-centric Security Evaluation Approach [1.996354642790599]
strideSEAはSTRIDEを中央分類体系として統合し、脅威モデリング、攻撃シナリオ分析、リスク分析、対策レコメンデーションのセキュリティ活動に統合する。
strideSEAの応用は、実世界のオンライン免疫システムケーススタディで実証されている。
論文 参考訳(メタデータ) (2025-03-24T18:00:17Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - 2FA: Navigating the Challenges and Solutions for Inclusive Access [55.2480439325792]
2要素認証(2FA)は、オンライン活動を保護する重要なソリューションとして浮上している。
本稿では,全ユーザに対して安全かつアクセス可能な方法で2FAをデプロイすることの難しさについて検討する。
人気オンラインプラットフォームにおける様々な2FA手法の実装と利用状況について分析を行った。
論文 参考訳(メタデータ) (2025-02-17T12:23:53Z) - Assessing the Trustworthiness of Electronic Identity Management Systems: Framework and Insights from Inception to Deployment [9.132025152225447]
本稿ではDISTAF(Digital Identity Systems Trustworthiness Assessment Framework)を紹介する。
65以上のメカニズムと、国際標準や技術ガイドラインから派生した400以上のメトリクスによって支援されている。
我々は, Modular Open Source Identity Platform (MOSIP) インスタンスを用いた実世界の実装による DISTAF の応用を実演する。
論文 参考訳(メタデータ) (2025-02-15T11:26:30Z) - Agent-SafetyBench: Evaluating the Safety of LLM Agents [72.92604341646691]
我々は,大規模言語モデル(LLM)の安全性を評価するための総合ベンチマークであるAgent-SafetyBenchを紹介する。
Agent-SafetyBenchは349のインタラクション環境と2,000のテストケースを含み、安全リスクの8つのカテゴリを評価し、安全でないインタラクションで頻繁に発生する10の一般的な障害モードをカバーする。
16 名の LLM エージェントを評価した結果,いずれのエージェントも 60% 以上の安全性スコアを達成できないことがわかった。
論文 参考訳(メタデータ) (2024-12-19T02:35:15Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - SAFETY-J: Evaluating Safety with Critique [24.723999605458832]
SAFETY-Jは、英語と中国語のための二言語生成安全評価器であり、批判に基づく判断である。
人間の介入を最小限に抑えて批評の質を客観的に評価する自動メタ評価ベンチマークを構築した。
SAFETY-Jはよりニュアンスで正確な安全性評価を提供し、複雑なコンテンツシナリオにおける批判的品質と予測信頼性の両面を向上することを示した。
論文 参考訳(メタデータ) (2024-07-24T08:04:00Z) - Identity Prove Limited Information Governance Policy against cyber
security persistent threats [0.0]
IDPLは、ISO/IEC:2022のセキュリティと最適性能の標準に基づく情報ガバナンスを適用している。
企業は、正しい人、本物の人、リアルタイムで認証することを保証するべきです。
同社は、顧客データとその情報システム資産に対する潜在的なリスクすべてに焦点を当てた社内システムを持っている。
論文 参考訳(メタデータ) (2023-09-05T10:00:10Z) - An Ontological Approach to Compliance Verification of the NIS 2 Directive [0.0]
本稿では,テキスト文書が規定するセキュリティ対策のコンプライアンスチェックに向けて,意味表現と推論の手法を活用するアプローチを提案する。
命令からの実体と関係の形式化と、それに伴う重大な散文に関する構造化の改善は、コンプライアンス検証の難しい作業を通じて、いかなる組織にとっても劇的に役立つ。
論文 参考訳(メタデータ) (2023-06-30T09:10:54Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。