論文の概要: Translating Common Security Assertions Across Processor Designs: A RISC-V Case Study
- arxiv url: http://arxiv.org/abs/2502.10194v1
- Date: Fri, 14 Feb 2025 14:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 19:47:35.756037
- Title: Translating Common Security Assertions Across Processor Designs: A RISC-V Case Study
- Title(参考訳): プロセッサ設計における共通セキュリティ設定の翻訳:RISC-Vケーススタディ
- Authors: Sharjeel Imtiaz, Uljana Reinsalu, Tara Ghasempouri,
- Abstract要約: RISC-Vは、プロセッサ設計における適応性とコスト効率で人気を集めている。
アサーションベースのセキュリティ検証は、セキュリティ機能が効果的に満たされることを保証するための有望なアプローチであることが証明されている。
最近のアプローチでは、事前に定義されたセキュリティアサーションを別の設計に翻訳することに重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RISC-V is gaining popularity for its adaptability and cost-effectiveness in processor design. With the increasing adoption of RISC-V, the importance of implementing robust security verification has grown significantly. In the state of the art, various approaches have been developed to strengthen the security verification process. Among these methods, assertion-based security verification has proven to be a promising approach for ensuring that security features are effectively met. To this end, some approaches manually define security assertions for processor designs; however, these manual methods require significant time, cost, and human expertise. Consequently, recent approaches focus on translating pre-defined security assertions from one design to another. Nonetheless, these methods are not primarily centered on processor security, particularly RISC-V. Furthermore, many of these approaches have not been validated against real-world attacks, such as hardware Trojans. In this work, we introduce a methodology for translating security assertions across processors with different architectures, using RISC-V as a case study. Our approach reduces time and cost compared to developing security assertions manually from the outset. Our methodology was applied to five critical security modules with assertion translation achieving nearly 100% success across all modules. These results validate the efficacy of our approach and highlight its potential for enhancing security verification in modern processor designs. The effectiveness of the translated assertions was rigorously tested against hardware Trojans defined by large language models (LLMs), demonstrating their reliability in detecting security breaches.
- Abstract(参考訳): RISC-Vは、プロセッサ設計における適応性とコスト効率で人気を集めている。
RISC-Vの採用の増加に伴い、堅牢なセキュリティ検証を実装することの重要性は著しく向上した。
現状では,セキュリティ検証のプロセスを強化するために,様々なアプローチが開発されている。
これらの方法の中で、アサーションベースのセキュリティ検証は、セキュリティ機能が効果的に満たされることを保証するための有望なアプローチであることが証明されている。
この目的のために、プロセッサ設計のセキュリティアサーションを手動で定義するアプローチもあるが、これらの手動手法にはかなりの時間、コスト、人間の専門知識が必要である。
その結果、最近のアプローチでは、事前に定義されたセキュリティアサーションを別の設計に翻訳することに焦点が当てられている。
しかしながら、これらの手法は主にプロセッサのセキュリティ、特にRISC-Vに重点を置いているわけではない。
さらに、これらのアプローチの多くは、ハードウェアトロイの木馬のような現実世界の攻撃に対して検証されていない。
本研究では,RISC-Vをケーススタディとして,異なるアーキテクチャを持つプロセッサ間でセキュリティアサーションを変換する手法を提案する。
当社のアプローチは,セキュリティアサーションを最初から手作業で開発するよりも,時間とコストを削減します。
提案手法は5つの重要なセキュリティモジュールに適用され,アサーション変換が全モジュールで100%近い成功を収めた。
これらの結果は,我々のアプローチの有効性を検証し,現代のプロセッサ設計におけるセキュリティ検証の強化の可能性を強調した。
翻訳されたアサーションの有効性は、大規模言語モデル(LLM)によって定義されたハードウェアのトロイの木馬に対して厳格に検証され、セキュリティ違反を検出する信頼性が示された。
関連論文リスト
- Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - strideSEA: A STRIDE-centric Security Evaluation Approach [1.996354642790599]
strideSEAはSTRIDEを中央分類体系として統合し、脅威モデリング、攻撃シナリオ分析、リスク分析、対策レコメンデーションのセキュリティ活動に統合する。
strideSEAの応用は、実世界のオンライン免疫システムケーススタディで実証されている。
論文 参考訳(メタデータ) (2025-03-24T18:00:17Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Assessing confidence in frontier AI safety cases [37.839615078345886]
安全ケースは、システムの安全性に関する最上位のクレームを支持する構造化された議論を示す。
これにより、トップレベルのクレームとどのレベルの信頼が結びつくべきかという疑問が持ち上がる。
提案手法は,AI開発者が優先し,議論の敗者に対する調査をより効率的に行う方法である。
論文 参考訳(メタデータ) (2025-02-09T06:35:11Z) - RAG for Effective Supply Chain Security Questionnaire Automation [6.195947083911995]
本稿では,自然言語処理(NLP)と検索拡張生成(RAG)を用いた新しい手法を提案する。
我々は,大規模言語モデル(LLM)と高度な検索システムを統合することで,多様な文書形式を解釈し,正確な応答を生成するシステムであるQuestSecureを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:07:32Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - Building a Cybersecurity Risk Metamodel for Improved Method and Tool Integration [0.38073142980732994]
我々は,初期リスク分析にモデル駆動アプローチを適用した経験を,その後のセキュリティテストに関連して報告する。
私たちの仕事は、さまざまなツール間で情報のトレーサビリティをマップ、同期、保証するために使用される共通のメタモデルに依存しています。
論文 参考訳(メタデータ) (2024-09-12T10:18:26Z) - VeriCHERI: Exhaustive Formal Security Verification of CHERI at the RTL [4.652188875442064]
CHERIはハードウェアに直接、きめ細かいメモリ保護を提供し、強制する。
VeriCHERIはISA仕様を一切必要としないという点で、従来のものと概念的に異なる。
CHERIの変種を実装したRISC-Vベースのプロセッサ上で,VeriCHERIの有効性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-07-26T11:48:55Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。