論文の概要: ATLAS: AI-Assisted Threat-to-Assertion Learning for System-on-Chip Security Verification
- arxiv url: http://arxiv.org/abs/2603.01170v1
- Date: Sun, 01 Mar 2026 16:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.550398
- Title: ATLAS: AI-Assisted Threat-to-Assertion Learning for System-on-Chip Security Verification
- Title(参考訳): ATLAS: システム・オン・チップのセキュリティ検証のためのAI支援型脅威・アサーション学習
- Authors: Ishraq Tashdid, Kimia Tasnia, Alexander Garcia, Jonathan Valamehr, Sazadur Rahman,
- Abstract要約: ATLASは、System-on-Chip(SoC)セキュリティのための標準化された脅威モデリングとプロパティベースの形式検証をブリッジする。
資産中心の分析と脅威モデルテンプレートとマルチソースコンテキストを組み合わせることで、ATLASは脆弱性推論から正式な証明への変換を自動化する。
- 参考スコア(独自算出の注目度): 37.252166064253196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents ATLAS, an LLM-driven framework that bridges standardized threat modeling and property-based formal verification for System-on-Chip (SoC) security. Starting from vulnerability knowledge bases such as Common Weakness Enumeration (CWE), ATLAS identifies SoC-specific assets, maps relevant weaknesses, and generates assertion-based security properties and JasperGold scripts for verification. By combining asset-centric analysis with standardized threat model templates and multi-source SoC context, ATLAS automates the transformation from vulnerability reasoning to formal proof. Evaluated on three HACK@DAC benchmarks, ATLAS detected 39/48 CWEs and generated correct properties for 33 of those bugs, advancing automated, knowledge-driven SoC security verification toward a secure-by-design paradigm.
- Abstract(参考訳): この研究は、標準化された脅威モデリングとSoC(System-on-Chip)セキュリティのためのプロパティベースの形式検証を橋渡しするLLM駆動のフレームワークであるATLASを提示する。
Common Weakness Enumeration (CWE)のような脆弱性知識ベースから始まり、ATLASはSoC固有の資産を特定し、関連する弱点をマップし、アサーションベースのセキュリティプロパティと検証用のJasperGoldスクリプトを生成する。
ATLASは、アセット中心の分析と標準化された脅威モデルテンプレートとマルチソースのSoCコンテキストを組み合わせることで、脆弱性推論から正式な証明への変換を自動化する。
3つのHACK@DACベンチマークで評価され、ATLASは39/48 CWEを検出し、33のバグに対して正しいプロパティを生成した。
関連論文リスト
- ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack [52.17935054046577]
本稿では、間接的インジェクション攻撃に対する安全性アライメントを改善するためのモデルレベルのソリューションであるReasAlignを提案する。
ReasAlignには、ユーザクエリの分析、競合する命令の検出、ユーザの意図したタスクの継続性を維持するための構造化された推論ステップが組み込まれている。
論文 参考訳(メタデータ) (2026-01-15T08:23:38Z) - TeleAI-Safety: A comprehensive LLM jailbreaking benchmark towards attacks, defenses, and evaluations [46.98103424349245]
既存の安全性評価ベンチマークとフレームワークは、コアコンポーネントのアンバランスな統合によって制限されることが多い。
本稿では,モジュール型かつ再現可能なフレームワークであるTeleAI-Safetyと,厳密な安全性評価のための体系的なベンチマークを提案する。
12の異なるリスクカテゴリにまたがる342の攻撃コーパスによって、TeleAI-Safetyベンチマークは14のターゲットモデルに対して広範な評価を行う。
論文 参考訳(メタデータ) (2025-12-05T07:23:30Z) - The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - LASA: Enhancing SoC Security Verification with LLM-Aided Property Generation [7.52190283487474]
形式的プロパティ検証(FPV)は、設計の振る舞いをモデル化し、検証する機能を提供する。
現在のプラクティスでは、そのようなプロパティを作成するためにかなりの手作業が必要で、時間がかかり、コストがかかり、エラーが発生します。
本稿では,LLMと検索拡張生成(RAG)を活用して非空きセキュリティ特性を創出する新しいフレームワークであるLASAを提案する。
論文 参考訳(メタデータ) (2025-06-22T01:21:03Z) - A Systematic Classification of Vulnerabilities in MoveEVM Smart Contracts (MWC) [0.0]
Moveで構築されたスマートコントラクトのための、専用の脆弱性分類を導入します。
我々の分類は6つのセマンティックフレームにまたがる37の分類された脆弱性タイプにまたがっている。
MWCは、次世代ブロックチェーンシステムにおいて、よりセキュアで検証可能な契約の基礎を築いている。
論文 参考訳(メタデータ) (2025-05-25T08:53:23Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - SeCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [58.29510889419971]
コード生成大型言語モデル(LLM)のセキュリティリスクと能力を評価するための既存のベンチマークは、いくつかの重要な制限に直面している。
手動で検証し、高品質なシード例から始める、汎用的でスケーラブルなベンチマーク構築フレームワークを導入し、ターゲット突然変異を通じて拡張する。
このフレームワークをPython、C/C++、Javaに適用すると、44のCWEベースのリスクカテゴリと3つのセキュリティ機能にまたがる5.9k以上のサンプルデータセットであるSeCodePLTが構築されます。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - RESAA: A Removal and Structural Analysis Attack Against Compound Logic Locking [2.7309692684728617]
本稿では,CLLでロックされた設計を分類し,重要なゲートを識別し,秘密鍵を明らかにするための様々な攻撃を実行するための新しいフレームワークRESAAを提案する。
その結果、RESAAは比較的複雑なITC'99ベンチマーク回路で92.6%の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2024-09-25T14:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。