論文の概要: STELLAR: Structure-guided LLM Assertion Retrieval and Generation for Formal Verification
- arxiv url: http://arxiv.org/abs/2601.19903v2
- Date: Thu, 05 Feb 2026 16:54:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.116293
- Title: STELLAR: Structure-guided LLM Assertion Retrieval and Generation for Formal Verification
- Title(参考訳): STELLAR: 形式検証のための構造誘導LDM挿入検索と生成
- Authors: Saeid Rajabi, Chengmo Yang, Satwik Patnaik,
- Abstract要約: 本稿では,LLMベースのSVA生成を構造的類似性でガイドする最初のフレームワークであるSTELLARについて述べる。
実験の結果,STELLARは構文的正当性,スタイル的整合性,機能的正当性に優れていた。
- 参考スコア(独自算出の注目度): 6.1976616578723105
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Formal Verification (FV) relies on high-quality SystemVerilog Assertions (SVAs), but the manual writing process is slow and error-prone. Existing LLM-based approaches either generate assertions from scratch or ignore structural patterns in hardware designs and expert-crafted assertions. This paper presents STELLAR, the first framework that guides LLM-based SVA generation with structural similarity. STELLAR represents RTL blocks as AST structural fingerprints, retrieves structurally relevant (RTL, SVA) pairs from a knowledge base, and integrates them into structure-guided prompts. Experiments show that STELLAR achieves superior syntax correctness, stylistic alignment, and functional correctness, highlighting structure-aware retrieval as a promising direction for industrial FV.
- Abstract(参考訳): 形式検証(FV)は、高品質なSystemVerilog Assertions (SVAs)に依存しているが、手書きの処理は遅く、エラーを起こしやすい。
既存のLCMベースのアプローチは、ハードウェア設計や専門家によるアサーションにおいて、ゼロからアサーションを生成するか、構造パターンを無視する。
本稿では,LLMベースのSVA生成を構造的類似性でガイドする最初のフレームワークであるSTELLARについて述べる。
STELLARは、RTLブロックをAST構造指紋として表現し、知識ベースから構造関連(RTL、SVA)ペアを取得し、構造誘導プロンプトに統合する。
実験により,STELLARは構文的正当性,スタイル的整合性,機能的正当性を向上し,産業用FVの有望な方向として構造認識検索を強調した。
関連論文リスト
- Beyond Basic Specifications? A Systematic Study of Logical Constructs in LLM-based Specification Generation [29.231420590756954]
プログラム仕様の自動生成のための大規模言語モデル(LLM)は、検証効率を向上させるための有望な道として登場した。
既存の LLM 仕様生成フレームワークに論理構造を組み込むことを提案する。
我々は,様々な種類の構文構造が仕様生成フレームワークに与える影響について,実証的研究を行った。
論文 参考訳(メタデータ) (2026-01-31T13:19:40Z) - LSRIF: Logic-Structured Reinforcement Learning for Instruction Following [56.517329105764475]
命令論理を明示的にモデル化するロジック構造化学習フレームワーク LSRIF を提案する。
実験の結果、LSRIFは命令追従と一般的な推論に大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2026-01-10T05:11:38Z) - Structure-R1: Dynamically Leveraging Structural Knowledge in LLM Reasoning through Reinforcement Learning [29.722512436773638]
本稿では,検索したコンテンツを推論に最適化した構造化表現に変換するフレームワークであるtextscStructure-R1を提案する。
textscStructure-R1は、7Bスケールのバックボーンモデルとの競合性能を一貫して達成していることを示す。
我々の理論的分析は,情報密度と文脈的明瞭度を向上させることによって,構造化表現が推論をいかに促進するかを示す。
論文 参考訳(メタデータ) (2025-10-16T23:19:28Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - AI4Contracts: LLM & RAG-Powered Encoding of Financial Derivative Contracts [1.3060230641655135]
大規模言語モデル(LLM)と検索拡張生成(RAG)は、AIシステムが構造化されていないテキストから情報を抽出し整理する方法を再構築している。
本稿では,テンプレート駆動型LLMフレームワークであるCDMizerと,構造化テキスト変換のためのRAGベースのフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-06-01T16:05:00Z) - Structured Prompting and Feedback-Guided Reasoning with LLMs for Data Interpretation [0.0]
大規模言語モデル(LLM)は、自然言語の理解とタスクの一般化において顕著な能力を示した。
本稿では、構造化されたプロンプトおよびフィードバック駆動型変換ロジック生成手法であるSTROT Frameworkを紹介する。
論文 参考訳(メタデータ) (2025-05-03T00:05:01Z) - CLIP4STR: A Simple Baseline for Scene Text Recognition with Pre-trained Vision-Language Model [55.321010757641524]
CLIP4STRは,CLIPのイメージエンコーダとテキストエンコーダ上に構築された,シンプルで効果的なSTRメソッドである。
モデルサイズ、事前トレーニングデータ、トレーニングデータの観点からCLIP4STRをスケールし、13のSTRベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-05-23T12:51:20Z) - StrAE: Autoencoding for Pre-Trained Embeddings using Explicit Structure [5.2869308707704255]
StrAEは構造化オートエンコーダフレームワークであり、明示的な構造に厳格に固執することで、マルチレベル表現の効果的な学習を可能にする。
本研究の結果は,入力として提供される構造に直接的な関連性があることを示し,既存のツリーモデルではそうではないことを示す。
次に、StrAEを拡張して、単純なローカライズ・マージアルゴリズムを用いてモデルが独自の構成を定義する。
論文 参考訳(メタデータ) (2023-05-09T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。