論文の概要: Towards LLM-based Root Cause Analysis of Hardware Design Failures
- arxiv url: http://arxiv.org/abs/2507.06512v1
- Date: Wed, 09 Jul 2025 03:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.451098
- Title: Towards LLM-based Root Cause Analysis of Hardware Design Failures
- Title(参考訳): LLMによるハードウェア設計失敗の原因解析に向けて
- Authors: Siyu Qiu, Muzhi Wang, Raheel Afsharmazayejani, Mohammad Moradi Shahmiri, Benjamin Tan, Hammond Pearce,
- Abstract要約: 大規模言語モデル(LLM)は、設計問題と合成とシミュレーション中に明らかになったバグの根本原因を説明することができる。
OpenAIのo3-mini推論モデルは、pass@5スコアの100%の時間で正しい決定に達した。
- 参考スコア(独自算出の注目度): 8.588085004917476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With advances in large language models (LLMs), new opportunities have emerged to develop tools that support the digital hardware design process. In this work, we explore how LLMs can assist with explaining the root cause of design issues and bugs that are revealed during synthesis and simulation, a necessary milestone on the pathway towards widespread use of LLMs in the hardware design process and for hardware security analysis. We find promising results: for our corpus of 34 different buggy scenarios, OpenAI's o3-mini reasoning model reached a correct determination 100% of the time under pass@5 scoring, with other state of the art models and configurations usually achieving more than 80% performance and more than 90% when assisted with retrieval-augmented generation.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩に伴い、デジタルハードウェア設計プロセスをサポートするツールを開発する新たな機会が生まれている。
本研究では, ハードウェア設計プロセスやハードウェアセキュリティ解析において, LLMを広く活用するために必要なマイルストーンである, 合成とシミュレーション中に明らかになった設計問題やバグの根本原因を説明する上で, LLMがいかに役立つかを検討する。
有望な結果が得られます: 34の異なるバグシナリオのコーパスに対して、OpenAIのo3-mini推論モデルは、pass@5スコアの100%の時間で正しい決定に達しました。
関連論文リスト
- Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study [55.09905978813599]
データ理解、コード生成、戦略的計画という3つの側面にわたるモデルを評価します。
我々はこれらの知見を活用してデータ合成手法を開発し、オープンソースのLCMの分析的推論能力の大幅な改善を実証した。
論文 参考訳(メタデータ) (2025-06-24T17:04:23Z) - Integrating Large Language Models for Automated Structural Analysis [0.7373617024876725]
本稿では,Large Language Models (LLM) と構造解析ソフトウェアを統合するフレームワークを提案する。
LLMはテキストから構造記述を解析し、それらをPythonスクリプトに変換する。
ドメイン固有のプロンプト設計とコンテキスト内学習戦略を採用し、LLMの問題解決能力と生成安定性を高める。
論文 参考訳(メタデータ) (2025-04-13T23:10:33Z) - AutoLogi: Automated Generation of Logic Puzzles for Evaluating Reasoning Abilities of Large Language Models [86.83875864328984]
本稿では,オープンエンド論理パズルを自動合成する手法を提案し,それをバイリンガルベンチマークであるAutoLogiの開発に利用する。
提案手法は,プログラムベースの検証と制御可能な難易度を特徴とし,モデルの推論能力をよりよく区別する信頼性の高い評価を可能にする。
論文 参考訳(メタデータ) (2025-02-24T07:02:31Z) - Automatically Improving LLM-based Verilog Generation using EDA Tool Feedback [25.596711210493172]
大きな言語モデル(LLM)は、完全に機能するHDLコードを生成するための潜在的なツールとして現れています。
電子設計自動化(EDA)ツールからのフィードバックを利用して,自作のVerilogの誤りを修正できることを評価する。
論文 参考訳(メタデータ) (2024-11-01T17:33:28Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - The Hitchhiker's Guide to Program Analysis: A Journey with Large
Language Models [18.026567399243]
大規模言語モデル(LLM)は静的解析に代わる有望な選択肢を提供する。
本稿では,LLM支援静的解析のオープン空間を深く掘り下げる。
LLiftは,静的解析ツールとLLMの両方を併用した,完全に自動化されたフレームワークである。
論文 参考訳(メタデータ) (2023-08-01T02:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。