論文の概要: TELSAFE: Security Gap Quantitative Risk Assessment Framework
- arxiv url: http://arxiv.org/abs/2507.06497v1
- Date: Wed, 09 Jul 2025 02:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.441791
- Title: TELSAFE: Security Gap Quantitative Risk Assessment Framework
- Title(参考訳): TELSAFE: セキュリティギャップの定量的リスク評価フレームワーク
- Authors: Sarah Ali Siddiqui, Chandra Thapa, Derui Wang, Rayne Holland, Wei Shao, Seyit Camtepe, Hajime Suzuki, Rajiv Shah,
- Abstract要約: 確立されたセキュリティ標準と実践的な実装との間のギャップは、脆弱性を導入する可能性がある。
TELSAFEと呼ばれる新しいハイブリッドリスク評価フレームワークを導入し、定量的リスク評価に確率論的モデリングを適用した。
- 参考スコア(独自算出の注目度): 9.16098821053237
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gaps between established security standards and their practical implementation have the potential to introduce vulnerabilities, possibly exposing them to security risks. To effectively address and mitigate these security and compliance challenges, security risk management strategies are essential. However, it must adhere to well-established strategies and industry standards to ensure consistency, reliability, and compatibility both within and across organizations. In this paper, we introduce a new hybrid risk assessment framework called TELSAFE, which employs probabilistic modeling for quantitative risk assessment and eliminates the influence of expert opinion bias. The framework encompasses both qualitative and quantitative assessment phases, facilitating effective risk management strategies tailored to the unique requirements of organizations. A specific use case utilizing Common Vulnerabilities and Exposures (CVE)-related data demonstrates the framework's applicability and implementation in real-world scenarios, such as in the telecommunications industry.
- Abstract(参考訳): 確立されたセキュリティ標準とそれらの実践的実装との間のギャップは、脆弱性を導入し、セキュリティリスクにさらされる可能性がある。
これらのセキュリティとコンプライアンスの課題に効果的に対処し、緩和するためには、セキュリティリスク管理戦略が不可欠である。
しかし、組織内および組織間の一貫性、信頼性、互換性を保証するために、確立された戦略と業界標準に従わなければならない。
本稿では, 定量的リスク評価に確率論的モデリングを適用し, 専門家の意見バイアスの影響を排除した, TELSAFE と呼ばれるハイブリッドリスク評価フレームワークを提案する。
このフレームワークは質的な評価フェーズと定量的評価フェーズの両方を含み、組織のユニークな要件に合わせて効果的なリスク管理戦略を促進する。
Common Vulnerabilities and Exposures(CVE)関連データを利用した特定のユースケースは、通信業界のような現実のシナリオにおけるフレームワークの適用性と実装を示している。
関連論文リスト
- Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
提案する確率的安全性は,大規模展開の残留リスクが予め定義された閾値以下であることを保証することを目的としている。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - From nuclear safety to LLM security: Applying non-probabilistic risk management strategies to build safe and secure LLM-powered systems [49.1574468325115]
大型言語モデル(LLM)は、前例がなく成長する能力を提供するが、複雑な安全性とセキュリティの課題ももたらす。
以前の研究では、原子力や土木工学といった様々な工学分野におけるリスク管理は、一般的な(フィールドに依存しない)戦略によってしばしば解決されている。
ここでは、LSMによるシステムにおける新たなリスクが、リスク管理の非確率的戦略の100以上で満たされる可能性を示す。
論文 参考訳(メタデータ) (2025-05-20T16:07:41Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - A Frontier AI Risk Management Framework: Bridging the Gap Between Current AI Practices and Established Risk Management [0.0]
最近の強力なAIシステムの開発は、堅牢なリスク管理フレームワークの必要性を強調している。
本稿では,フロンティアAI開発のための包括的リスク管理フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T16:47:00Z) - AssessITS: Integrating procedural guidelines and practical evaluation metrics for organizational IT and Cybersecurity risk assessment [0.0]
「AssessITS」は、国際的に認められた基準に基づいて、組織が行動可能なITセキュリティの強度を高めることを目的としている。
「AssessITS」は、国際的に認められた基準に基づいて、組織が行動可能なITセキュリティの強度を高めることを目的としている。
論文 参考訳(メタデータ) (2024-10-02T17:01:59Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Safe Inputs but Unsafe Output: Benchmarking Cross-modality Safety Alignment of Large Vision-Language Model [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。