論文の概要: Translating Common Security Assertions Across Processor Designs: A RISC-V Case Study
- arxiv url: http://arxiv.org/abs/2502.10194v1
- Date: Fri, 14 Feb 2025 14:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:44:15.031849
- Title: Translating Common Security Assertions Across Processor Designs: A RISC-V Case Study
- Title(参考訳): プロセッサ設計における共通セキュリティ設定の翻訳:RISC-Vケーススタディ
- Authors: Sharjeel Imtiaz, Uljana Reinsalu, Tara Ghasempouri,
- Abstract要約: RISC-Vは、プロセッサ設計における適応性とコスト効率で人気を集めている。
アサーションベースのセキュリティ検証は、セキュリティ機能が効果的に満たされることを保証するための有望なアプローチであることが証明されている。
最近のアプローチでは、事前に定義されたセキュリティアサーションを別の設計に翻訳することに重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: RISC-V is gaining popularity for its adaptability and cost-effectiveness in processor design. With the increasing adoption of RISC-V, the importance of implementing robust security verification has grown significantly. In the state of the art, various approaches have been developed to strengthen the security verification process. Among these methods, assertion-based security verification has proven to be a promising approach for ensuring that security features are effectively met. To this end, some approaches manually define security assertions for processor designs; however, these manual methods require significant time, cost, and human expertise. Consequently, recent approaches focus on translating pre-defined security assertions from one design to another. Nonetheless, these methods are not primarily centered on processor security, particularly RISC-V. Furthermore, many of these approaches have not been validated against real-world attacks, such as hardware Trojans. In this work, we introduce a methodology for translating security assertions across processors with different architectures, using RISC-V as a case study. Our approach reduces time and cost compared to developing security assertions manually from the outset. Our methodology was applied to five critical security modules with assertion translation achieving nearly 100% success across all modules. These results validate the efficacy of our approach and highlight its potential for enhancing security verification in modern processor designs. The effectiveness of the translated assertions was rigorously tested against hardware Trojans defined by large language models (LLMs), demonstrating their reliability in detecting security breaches.
- Abstract(参考訳): RISC-Vは、プロセッサ設計における適応性とコスト効率で人気を集めている。
RISC-Vの採用の増加に伴い、堅牢なセキュリティ検証を実装することの重要性は著しく向上した。
現状では,セキュリティ検証のプロセスを強化するために,様々なアプローチが開発されている。
これらの方法の中で、アサーションベースのセキュリティ検証は、セキュリティ機能が効果的に満たされることを保証するための有望なアプローチであることが証明されている。
この目的のために、プロセッサ設計のセキュリティアサーションを手動で定義するアプローチもあるが、これらの手動手法にはかなりの時間、コスト、人間の専門知識が必要である。
その結果、最近のアプローチでは、事前に定義されたセキュリティアサーションを別の設計に翻訳することに焦点が当てられている。
しかしながら、これらの手法は主にプロセッサのセキュリティ、特にRISC-Vに重点を置いているわけではない。
さらに、これらのアプローチの多くは、ハードウェアトロイの木馬のような現実世界の攻撃に対して検証されていない。
本研究では,RISC-Vをケーススタディとして,異なるアーキテクチャを持つプロセッサ間でセキュリティアサーションを変換する手法を提案する。
当社のアプローチは,セキュリティアサーションを最初から手作業で開発するよりも,時間とコストを削減します。
提案手法は5つの重要なセキュリティモジュールに適用され,アサーション変換が全モジュールで100%近い成功を収めた。
これらの結果は,我々のアプローチの有効性を検証し,現代のプロセッサ設計におけるセキュリティ検証の強化の可能性を強調した。
翻訳されたアサーションの有効性は、大規模言語モデル(LLM)によって定義されたハードウェアのトロイの木馬に対して厳格に検証され、セキュリティ違反を検出する信頼性が示された。
関連論文リスト
- Assessing confidence in frontier AI safety cases [37.839615078345886]
安全ケースは、システムの安全性に関する最上位のクレームを支持する構造化された議論を示す。
これにより、トップレベルのクレームとどのレベルの信頼が結びつくべきかという疑問が持ち上がる。
提案手法は,AI開発者が優先し,議論の敗者に対する調査をより効率的に行う方法である。
論文 参考訳(メタデータ) (2025-02-09T06:35:11Z) - RAG for Effective Supply Chain Security Questionnaire Automation [6.195947083911995]
本稿では,自然言語処理(NLP)と検索拡張生成(RAG)を用いた新しい手法を提案する。
我々は,大規模言語モデル(LLM)と高度な検索システムを統合することで,多様な文書形式を解釈し,正確な応答を生成するシステムであるQuestSecureを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:07:32Z) - Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - Building a Cybersecurity Risk Metamodel for Improved Method and Tool Integration [0.38073142980732994]
我々は,初期リスク分析にモデル駆動アプローチを適用した経験を,その後のセキュリティテストに関連して報告する。
私たちの仕事は、さまざまなツール間で情報のトレーサビリティをマップ、同期、保証するために使用される共通のメタモデルに依存しています。
論文 参考訳(メタデータ) (2024-09-12T10:18:26Z) - VeriCHERI: Exhaustive Formal Security Verification of CHERI at the RTL [4.652188875442064]
CHERIはハードウェアに直接、きめ細かいメモリ保護を提供し、強制する。
VeriCHERIはISA仕様を一切必要としないという点で、従来のものと概念的に異なる。
CHERIの変種を実装したRISC-Vベースのプロセッサ上で,VeriCHERIの有効性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-07-26T11:48:55Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。