論文の概要: Reasoning Under Threat: Symbolic and Neural Techniques for Cybersecurity Verification
- arxiv url: http://arxiv.org/abs/2503.22755v1
- Date: Thu, 27 Mar 2025 11:41:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:37:07.794011
- Title: Reasoning Under Threat: Symbolic and Neural Techniques for Cybersecurity Verification
- Title(参考訳): サイバーセキュリティ検証のためのシンボリックおよびニューラルテクニック
- Authors: Sarah Veronica,
- Abstract要約: 本調査では,サイバーセキュリティにおける自動推論の役割について概観する。
我々は、SOTAツールとフレームワークを調べ、ニューラルシンボリック推論のためのAIとの統合を調査し、重要な研究ギャップを浮き彫りにする。
本稿は,安全なシステム開発を促進することを目的とした,先進的な研究の方向性の集合をまとめてまとめる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Cybersecurity demands rigorous and scalable techniques to ensure system correctness, robustness, and resilience against evolving threats. Automated reasoning, encompassing formal logic, theorem proving, model checking, and symbolic analysis, provides a foundational framework for verifying security properties across diverse domains such as access control, protocol design, vulnerability detection, and adversarial modeling. This survey presents a comprehensive overview of the role of automated reasoning in cybersecurity, analyzing how logical systems, including temporal, deontic, and epistemic logics are employed to formalize and verify security guarantees. We examine SOTA tools and frameworks, explore integrations with AI for neural-symbolic reasoning, and highlight critical research gaps, particularly in scalability, compositionality, and multi-layered security modeling. The paper concludes with a set of well-grounded future research directions, aiming to foster the development of secure systems through formal, automated, and explainable reasoning techniques.
- Abstract(参考訳): サイバーセキュリティは、システムの正しさ、堅牢性、そして進化する脅威に対するレジリエンスを保証するために厳格でスケーラブルな技術を要求する。
形式論理、定理証明、モデルチェック、シンボリック分析を含む自動推論は、アクセス制御、プロトコル設計、脆弱性検出、敵モデリングなど、さまざまな領域にわたるセキュリティ特性を検証するための基盤となるフレームワークを提供する。
本調査では,サイバーセキュリティにおける自動推論の役割を包括的に概説し,セキュリティ保証の形式化と検証のために,時間論理,デオン論理,疫学論理などの論理システムがいかに利用されているかを分析した。
我々はSOTAツールとフレームワークを調べ、ニューラルシンボリック推論のためのAIとの統合を探究し、特にスケーラビリティ、構成性、多層セキュリティモデリングにおいて重要な研究ギャップを浮き彫りにする。
本稿は,形式的,自動化された,説明可能な推論技術を通じて,セキュアなシステム開発を促進することを目的とした,先進的な研究の方向性の集合で締めくくっている。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Safety at Scale: A Comprehensive Survey of Large Model Safety [298.05093528230753]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Integrating Cybersecurity Frameworks into IT Security: A Comprehensive Analysis of Threat Mitigation Strategies and Adaptive Technologies [0.0]
サイバーセキュリティの脅威の状況は、IT構造を保護するための健全なフレームワークの開発を、積極的に推進している。
本稿では,サイバーセキュリティの脅威の性質の変化に対処する上での,このようなフレームワークの役割に焦点をあてて,ITセキュリティへのサイバーセキュリティフレームワークの適用について論じる。
この議論は、リアルタイム脅威検出と応答メカニズムのコアとして、人工知能(AI)や機械学習(ML)といった技術も挙げている。
論文 参考訳(メタデータ) (2025-02-02T03:38:48Z) - Autonomous Identity-Based Threat Segmentation in Zero Trust Architectures [4.169915659794567]
Zero Trust Architectures (ZTA) は,"信頼せず,すべてを検証する" アプローチを採用することで,ネットワークセキュリティを根本的に再定義する。
本研究は、ZTAにおけるAI駆動型、自律型、アイデンティティベースの脅威セグメンテーションに適用する。
論文 参考訳(メタデータ) (2025-01-10T15:35:02Z) - Bringing Order Amidst Chaos: On the Role of Artificial Intelligence in Secure Software Engineering [0.0]
進化を続ける技術的景観は、機会と脅威の両方を提供し、カオスと秩序が競合する動的な空間を作り出す。
セキュアなソフトウェアエンジニアリング(SSE)は、ソフトウェアシステムを危険にさらす脆弱性に継続的に対処しなければならない。
この論文は、AIの精度に影響を与えるドメイン固有の違いに対処することで、SSEのカオスに秩序をもたらすことを目指している。
論文 参考訳(メタデータ) (2025-01-09T11:38:58Z) - Cyber-Physical Security Vulnerabilities Identification and Classification in Smart Manufacturing -- A Defense-in-Depth Driven Framework and Taxonomy [0.0]
既存のソリューションは、製造環境の複雑なドメイン固有の脆弱性に対処するのに不足している。
本稿では, 脆弱性と防御の二重性に基づく新たな特徴付けを導入することにより, 製造状況における脆弱性を再定義する。
我々は,製造サイバースペース,人体要素,ポストプロダクション検査システム,生産プロセス監視,組織方針および手順の脆弱性を特定し,分類する。
論文 参考訳(メタデータ) (2024-12-29T11:41:06Z) - SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Model-Driven Security Analysis of Self-Sovereign Identity Systems [2.5475486924467075]
本稿では,SSIシステムのアーキテクチャパターンをモデル化するためのモデル駆動型セキュリティ分析フレームワークを提案する。
我々のフレームワークは、時間論理におけるセキュリティ特性を持つパターンや脅威を形式化するモデリング言語を機械化する。
SecureSSIで検証された典型的な脆弱性パターンを示す。
論文 参考訳(メタデータ) (2024-06-02T05:44:32Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。