論文の概要: Runtime Verification for Trustworthy Computing
- arxiv url: http://arxiv.org/abs/2310.02341v1
- Date: Tue, 3 Oct 2023 18:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 03:21:56.706277
- Title: Runtime Verification for Trustworthy Computing
- Title(参考訳): 信頼できるコンピューティングのための実行時検証
- Authors: Robert Abela, Christian Colombo, Axel Curmi, Mattea Fenech, Mark Vella, Angelo Ferrando,
- Abstract要約: 実行時検証がRich Execution Environment(REE)に対する信頼度を高める方法を示す。
RV-TEE監視プロセスにおける2つの脅威モデルに対する実用的な解決策を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous and robotic systems are increasingly being trusted with sensitive activities with potentially serious consequences if that trust is broken. Runtime verification techniques present a natural source of inspiration for monitoring and enforcing the desirable properties of the communication protocols in place, providing a formal basis and ways to limit intrusiveness. A recently proposed approach, RV-TEE, shows how runtime verification can enhance the level of trust to the Rich Execution Environment (REE), consequently adding a further layer of protection around the Trusted Execution Environment (TEE). By reflecting on the implication of deploying RV in the context of trustworthy computing, we propose practical solutions to two threat models for the RV-TEE monitoring process: one where the adversary has gained access to the system without elevated privileges, and another where the adversary gains all privileges to the host system but fails to steal secrets from the TEE.
- Abstract(参考訳): 自律システムとロボットシステムは、信頼が損なわれている場合、潜在的に深刻な結果をもたらすような繊細な活動にますます信頼されている。
実行時検証技術は、通信プロトコルの望ましい特性を監視し、強制するためのインスピレーションの自然な源であり、侵入性を制限するための公式な基礎と方法を提供する。
最近提案された RV-TEE アプローチは、実行時検証がRich Execution Environment (REE) に対する信頼度を高める方法を示し、それによってTrusted Execution Environment (TEE) を中心にさらなる保護層を追加する。
本稿では, RV-TEE監視プロセスにおいて, RVを信頼性の高いコンピュータにデプロイすることの意味を反映して, RV-TEE監視プロセスの2つの脅威モデルに対して, 敵が高特権なしでシステムにアクセスできた場合と, 敵がホストシステムにすべての特権を付与するが、TEEから秘密を盗むことができない場合の実用的な解決策を提案する。
関連論文リスト
- Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - Teamwork Makes TEE Work: Open and Resilient Remote Attestation on Decentralized Trust [11.664322958897449]
リモート(RA)は、Trusted Execution Environment(TEE)におけるアプリケーションの完全性と信頼性を検証する。
既存のTEE RA設計では、リモートパーティの信頼を確立するために、単一のプロビジョニングされた秘密鍵と集中型検証器に依存する集中型信頼モデルを採用している。
しかし、このモデルは不安定であり、近年の先進攻撃では信頼できない。
オープンでレジリエントなTEE RAスキームであるJANUSを提案する。
論文 参考訳(メタデータ) (2024-02-14T02:51:01Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Safe Perception -- A Hierarchical Monitor Approach [0.0]
本稿では,AIに基づく認識システムのための新しい階層的モニタリング手法を提案する。
検出ミスを確実に検出でき、同時に誤報率も極めて低い。
論文 参考訳(メタデータ) (2022-08-01T13:09:24Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Smart and Secure CAV Networks Empowered by AI-Enabled Blockchain: Next
Frontier for Intelligent Safe-Driving Assessment [17.926728975133113]
コネクテッド・自動運転車(CAV)の安全運転状況の確保は、引き続き広く懸念されている。
アルゴリズム対応型intElligent Safe-Driven AssessmentmenT(BEST)の新たなフレームワークを提案し、スマートで信頼性の高いアプローチを提供します。
論文 参考訳(メタデータ) (2021-04-09T19:08:34Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。