論文の概要: Runtime Verification for Trustworthy Computing
- arxiv url: http://arxiv.org/abs/2310.02341v1
- Date: Tue, 3 Oct 2023 18:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 03:21:56.706277
- Title: Runtime Verification for Trustworthy Computing
- Title(参考訳): 信頼できるコンピューティングのための実行時検証
- Authors: Robert Abela, Christian Colombo, Axel Curmi, Mattea Fenech, Mark Vella, Angelo Ferrando,
- Abstract要約: 実行時検証がRich Execution Environment(REE)に対する信頼度を高める方法を示す。
RV-TEE監視プロセスにおける2つの脅威モデルに対する実用的な解決策を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous and robotic systems are increasingly being trusted with sensitive activities with potentially serious consequences if that trust is broken. Runtime verification techniques present a natural source of inspiration for monitoring and enforcing the desirable properties of the communication protocols in place, providing a formal basis and ways to limit intrusiveness. A recently proposed approach, RV-TEE, shows how runtime verification can enhance the level of trust to the Rich Execution Environment (REE), consequently adding a further layer of protection around the Trusted Execution Environment (TEE). By reflecting on the implication of deploying RV in the context of trustworthy computing, we propose practical solutions to two threat models for the RV-TEE monitoring process: one where the adversary has gained access to the system without elevated privileges, and another where the adversary gains all privileges to the host system but fails to steal secrets from the TEE.
- Abstract(参考訳): 自律システムとロボットシステムは、信頼が損なわれている場合、潜在的に深刻な結果をもたらすような繊細な活動にますます信頼されている。
実行時検証技術は、通信プロトコルの望ましい特性を監視し、強制するためのインスピレーションの自然な源であり、侵入性を制限するための公式な基礎と方法を提供する。
最近提案された RV-TEE アプローチは、実行時検証がRich Execution Environment (REE) に対する信頼度を高める方法を示し、それによってTrusted Execution Environment (TEE) を中心にさらなる保護層を追加する。
本稿では, RV-TEE監視プロセスにおいて, RVを信頼性の高いコンピュータにデプロイすることの意味を反映して, RV-TEE監視プロセスの2つの脅威モデルに対して, 敵が高特権なしでシステムにアクセスできた場合と, 敵がホストシステムにすべての特権を付与するが、TEEから秘密を盗むことができない場合の実用的な解決策を提案する。
関連論文リスト
- Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - TRACES: TEE-based Runtime Auditing for Commodity Embedded Systems [9.32090482996659]
制御フロー監査(CFA)は、遠隔デバイスに対する制御フローハイジャック攻撃を検出する手段を提供する。
CFAは実行されたすべての分岐命令の宛先を含むトレース(CFLog)を生成する。
TraCESはPrvが侵害された場合でも、定期的なランタイムレポートの信頼性を保証する。
論文 参考訳(メタデータ) (2024-09-27T20:10:43Z) - AGORA: Open More and Trust Less in Binary Verification Service [16.429846973928512]
本稿では,この課題を克服するために設計された新しいバイナリ検証サービスであるAGORAを紹介する。
あるタスクは信頼できないエンティティに委譲でき、対応するバリデーターは信頼されたコンピューティングベースに確実に格納される。
ブロックチェーンベースの新たな報奨金タスクマネージャを通じて、クラウドソーシングを使用して、定理証明者の信頼を取り除く。
論文 参考訳(メタデータ) (2024-07-21T05:29:22Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Safe Perception -- A Hierarchical Monitor Approach [0.0]
本稿では,AIに基づく認識システムのための新しい階層的モニタリング手法を提案する。
検出ミスを確実に検出でき、同時に誤報率も極めて低い。
論文 参考訳(メタデータ) (2022-08-01T13:09:24Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Smart and Secure CAV Networks Empowered by AI-Enabled Blockchain: Next
Frontier for Intelligent Safe-Driving Assessment [17.926728975133113]
コネクテッド・自動運転車(CAV)の安全運転状況の確保は、引き続き広く懸念されている。
アルゴリズム対応型intElligent Safe-Driven AssessmentmenT(BEST)の新たなフレームワークを提案し、スマートで信頼性の高いアプローチを提供します。
論文 参考訳(メタデータ) (2021-04-09T19:08:34Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。