論文の概要: SoK: Understanding the Attack Surface in Device Driver Isolation Frameworks
- arxiv url: http://arxiv.org/abs/2412.16754v1
- Date: Sat, 21 Dec 2024 20:08:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:18.654986
- Title: SoK: Understanding the Attack Surface in Device Driver Isolation Frameworks
- Title(参考訳): SoK:デバイスドライバ分離フレームワークにおける攻撃面の理解
- Authors: Yongzhe Huang, Kaiming Huang, Matthew Ennis, Vikram Narayanan, Anton Burtsev, Trent Jaeger, Gang Tan,
- Abstract要約: デバイスドライバの分離は、カーネルを障害や悪意のあるドライバから保護するための有望なアプローチである。
近年,ユーザ空間のコンパートナライズされたアプリケーションにおいて,CIV(Compartment Interface Vulnerabilities)が特定されている。
本稿では,既存のドライバ分離フレームワークの設計とセキュリティ保証に関する包括的調査を行う。
- 参考スコア(独自算出の注目度): 13.000163695536534
- License:
- Abstract: Device driver isolation is a promising approach for protecting the kernel from faulty or malicious drivers, but the actual security provided by such frameworks is often not well understood. Recent research has identified Compartment Interface Vulnerabilities (CIVs) in userspace compartmentalized applications, yet their impact on driver isolation frameworks remains poorly understood. This paper provides a comprehensive survey of the design and security guarantees of existing driver isolation frameworks and systemizes existing CIV classifications, evaluating them under driver isolation. The analysis shows that different classes of CIVs are prevalent across the studied drivers under a baseline threat model, with large drivers having more than 100 instances of different CIVs and an average of 33 instances across the studied drivers. Enforcing extra security properties, such as CFI, can reduce the number of CIVs to around 28 instances on average. This study provides insights for understanding existing driver isolation security and the prevalence of CIVs in the driver isolation context, and extracts useful insights that can provide security guidance for future driver isolation systems.
- Abstract(参考訳): デバイスドライバの分離は、カーネルを障害や悪意のあるドライバから守るための有望なアプローチだが、そのようなフレームワークが提供する実際のセキュリティはよく理解されていない。
最近の研究では、ユーザ空間の複合化アプリケーションにおけるCompartment Interface Vulnerabilities(CIV)が特定されているが、ドライバ分離フレームワークへの影響はよく分かっていない。
本稿では、既存のドライバ分離フレームワークの設計とセキュリティ保証に関する総合的な調査を行い、既存のCIV分類を体系化し、それらをドライバ分離下で評価する。
この分析は、CIVの異なるクラスが、ベースラインの脅威モデルの下で、研究対象のドライバ間で、100以上の異なるCIVのインスタンスを持ち、調査対象のドライバ全体で平均33のインスタンスを持つことを示している。
CFIのような追加のセキュリティプロパティを強制することで、CIVの数を平均28インスタンスに削減できる。
本研究は、運転者隔離システムにおける既存の運転者隔離セキュリティとCIVの出現状況を理解するための洞察を提供し、将来の運転者隔離システムに対するセキュリティガイダンスを提供する有用な洞察を抽出する。
関連論文リスト
- Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - AI-Driven Intrusion Detection Systems (IDS) on the ROAD Dataset: A Comparative Analysis for Automotive Controller Area Network (CAN) [4.081467217340597]
コントロールエリアネットワーク(CAN)バスは、電子制御ユニット(ECU)間の車内通信を管理する中央システムである。
CANプロトコルは、固有の脆弱性、暗号化と認証の欠如、攻撃面の拡大、堅牢なセキュリティ対策を必要とするセキュリティ上の問題を引き起こす。
本稿では、ステルスと洗練された注入を含む最新のROADデータセットについて考察する。
論文 参考訳(メタデータ) (2024-08-30T12:26:23Z) - STDA: Spatio-Temporal Dual-Encoder Network Incorporating Driver Attention to Predict Driver Behaviors Under Safety-Critical Scenarios [11.303666834549896]
ドライバーの注意は、安全クリティカルなシナリオのためにSTDAという2つの行動コーダ-enネットワークに組み込まれた。
STDAにはドライバの注意予測モジュールと、ドライバの注意と生画像とを融合させるために設計された融合モジュールと、動的シーンを解釈する能力を高めるために使用される一時的なエンコーダモジュールの4つの部分が含まれている。
その結果、STDAはドライバーの注意を取り入れて時間エンコーダモジュールを採用すると、G平均を0.659から0.719に改善することがわかった。
論文 参考訳(メタデータ) (2024-08-03T13:06:04Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Intersection focused Situation Coverage-based Verification and
Validation Framework for Autonomous Vehicles Implemented in CARLA [1.1602089225841632]
本稿では,AVの検証・検証(V&V)と安全性保証のための状況カバレッジベース(SitCov) AV-testingフレームワークを提案する。
SitCov AV-testing frameworkは、異なる環境および交差点構成下での道路交差点における車両と車両の相互作用に焦点を当てる。
私たちのコードはオンラインで公開されており、誰でも私たちのSitCov AV-testingフレームワークを使って、それを使って、さらにその上に構築することができます。
論文 参考訳(メタデータ) (2021-12-24T02:56:56Z) - Corner Case Generation and Analysis for Safety Assessment of Autonomous
Vehicles [3.673699859949693]
意思決定システムのための一貫した枠組みが提案されている。
背景車両の挙動を学習するために, 深部強化学習技術を適用した。
学習されたポリシーでは、BVはより積極的にCAVと対話し、より多くのコーナーケースをもたらす。
論文 参考訳(メタデータ) (2021-02-06T02:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。