論文の概要: Learning to Debug: LLM-Organized Knowledge Trees for Solving RTL Assertion Failures
- arxiv url: http://arxiv.org/abs/2511.17833v1
- Date: Fri, 21 Nov 2025 22:57:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.46016
- Title: Learning to Debug: LLM-Organized Knowledge Trees for Solving RTL Assertion Failures
- Title(参考訳): デバッグの学習: RTLアサーション障害を解決するためのLLM-Organized Knowledge Tree
- Authors: Yunsheng Bai, Haoxing Ren,
- Abstract要約: 我々は,再利用可能なデバッグの専門知識を知識ツリーに学習し,整理する階層的な知識管理フレームワークであるGROVEを提案する。
GROVEは、事前のケースからデバッグ知識を抽出し、それを、簡潔な知識アイテムをコードする各ノードで、深さの垂直ツリーに整理する。
GROVEはpass@1とpass@5で一貫したゲインを提供し、構造化された知識進化の価値を実証している。
- 参考スコア(独自算出の注目度): 9.786099663270083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Debugging is the dominant cost in modern hardware verification, where assertion failures are among the most frequent and expensive to resolve. While Large Language Models (LLMs) show promise, they often fail to capture the precise, reusable expertise that engineers apply, leading to inaccurate responses. We propose GROVE, a hierarchical knowledge management framework that learns and organizes reusable debugging expertise into an LLM-organized knowledge tree for solving assertion failures. GROVE distills debugging knowledge from prior cases and organizes it into a vertical tree of configurable depth, with each node encoding a concise knowledge item and explicit applicability conditions. During training, GROVE uses a parallel, gradient-free loop where an LLM proposes tree modifications as structured JSON edits by learning from the cases. At test time, a budget-aware iterative zoom is performed to navigate the tree, retrieving a small set of applicable knowledge items that guide a base LLM's hypothesis generation and fix proposals. Evaluated on a suite of assertion-failure cases, GROVE delivers consistent gains in pass@1 and pass@5, demonstrating the value of structured knowledge evolution.
- Abstract(参考訳): デバッグは現代のハードウェア検証において主要なコストであり、アサーションの失敗は解決する上で最も頻繁に高くつく。
大きな言語モデル(LLM)は有望であるが、エンジニアが適用する正確で再利用可能な専門知識を捉えるのに失敗し、不正確な応答をもたらすことが多い。
我々は,再利用可能なデバッグの専門知識を学習・整理する階層的な知識管理フレームワークであるGROVEを,アサーション障害を解決するためのLLM編成の知識ツリーとして提案する。
GROVEは、事前のケースからデバッグ知識を抽出し、それを構成可能な深さの縦木に整理し、各ノードが簡潔な知識項目と明示的な適用条件を符号化する。
トレーニング中、GROVEは並列で勾配のないループを使用しており、LLMはケースから学ぶことによって構造化JSON編集としてツリー修正を提案する。
テスト時に、予算対応の反復ズームを行い、木をナビゲートし、ベースLSMの仮説生成をガイドし、提案を修正するための、適用可能な知識項目の小さなセットを取得する。
一連のアサーション障害のケースに基づいて評価され、GROVEはpass@1とpass@5で一貫したゲインを提供し、構造化された知識進化の価値を実証する。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - ConKE: Conceptualization-Augmented Knowledge Editing in Large Language Models for Commonsense Reasoning [47.98788315789392]
ConceptEditは、概念化とインスタンス化をKnowledge Editingパイプラインに統合するフレームワークである。
その結果,コンセプション編集は,他のベースラインに比べて信頼性が向上し,コモンセンスの知識を生み出すことができた。
論文 参考訳(メタデータ) (2024-12-16T03:34:40Z) - Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - Editing Conceptual Knowledge for Large Language Models [65.38231526537476]
本稿では,Large Language Models(LLMs)における概念知識の編集の先駆者となる。
本研究では,新しいベンチマークデータセットConceptEditを構築し,評価のための新しいメトリクスセットを確立する。
実験の結果,既存の編集手法は概念レベルの定義をある程度効率的に修正できるが,関連する瞬間的知識を歪ませる可能性も示された。
論文 参考訳(メタデータ) (2024-03-10T16:57:10Z) - DeepEdit: Knowledge Editing as Decoding with Constraints [118.78008395850888]
多段階推論における知識の編集は、大規模言語モデル(LLM)の知識編集(KE)において大きな課題となっている。
我々は、深度優先探索により新しい知識を持つコヒーレント推論チェーンを生成するLLMの能力を高める新しいKEフレームワークDEEPEDITを提案する。
DEEPEDITに加えて, MQUAKE-2002 と MQUAKE-HARD という2つの新しい KE ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-19T03:48:27Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Alphazero-like Tree-Search can Guide Large Language Model Decoding and
Training [37.79247073276239]
ToT(Tree-of-Thought)やRAP(Reasoning via Planning)といった最近の研究は、LLMの推論能力を強化することを目的としている。
LLMのためのAlphaZeroライクな木探索学習フレームワーク(TS-LLM)を提案する。
学習価値関数を用いた木探索がLLM復号を導出する方法を示す。
論文 参考訳(メタデータ) (2023-09-29T12:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。