論文の概要: Timing Analysis Agent: Autonomous Multi-Corner Multi-Mode (MCMM) Timing Debugging with Timing Debug Relation Graph
- arxiv url: http://arxiv.org/abs/2504.11502v1
- Date: Tue, 15 Apr 2025 04:14:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:42.919509
- Title: Timing Analysis Agent: Autonomous Multi-Corner Multi-Mode (MCMM) Timing Debugging with Timing Debug Relation Graph
- Title(参考訳): タイミング解析エージェント:タイミングデバッグ関係グラフを用いた自動マルチコアマルチモード(MCMM)タイミングデバッグ
- Authors: Jatin Nainani, Chia-Tung Ho, Anirudh Dhurka, Haoxing Ren,
- Abstract要約: 小さな金属ピッチとデバイス数の増加は、経験豊富な人間デザイナーがタイミング問題をデバッグするのに長いターンアラウンドタイムをもたらしている。
大きな言語モデル(LLM)は、言語理解と対話的な意思決定において、様々なタスクにおいて大きな可能性を示しています。
我々は、レポートと経験豊富なタイミングエンジニアのデバッグトレースの関係を結びつけるTDRG(Timing Relation Graph)を構築します。
- 参考スコア(独自算出の注目度): 1.6392250108065922
- License:
- Abstract: Timing analysis is an essential and demanding verification method for Very Large Scale Integrated (VLSI) circuit design and optimization. In addition, it also serves as the cornerstone of the final sign-off, determining whether the chip is ready to be sent to the semiconductor foundry for fabrication. Recently, as the technology advance relentlessly, smaller metal pitches and the increasing number of devices have led to greater challenges and longer turn-around-time for experienced human designers to debug timing issues from the Multi-Corner Multi-Mode (MCMM) timing reports. As a result, an efficient and intelligent methodology is highly necessary and essential for debugging timing issues and reduce the turnaround times. Recently, Large Language Models (LLMs) have shown great promise across various tasks in language understanding and interactive decision-making, incorporating reasoning and actions. In this work, we propose a timing analysis agent, that is empowered by multi-LLMs task solving, and incorporates a novel hierarchical planning and solving flow to automate the analysis of timing reports from commercial tool. In addition, we build a Timing Debug Relation Graph (TDRG) that connects the reports with the relationships of debug traces from experienced timing engineers. The timing analysis agent employs the novel Agentic Retrieval Augmented Generation (RAG) approach, that includes agent and coding to retrieve data accurately, on the developed TDRG. In our studies, the proposed timing analysis agent achieves an average 98% pass-rate on a single-report benchmark and a 90% pass-rate for multi-report benchmark from industrial designs, demonstrating its effectiveness and adaptability.
- Abstract(参考訳): タイミング解析は超大規模集積回路(VLSI)の設計と最適化に必須かつ必要な検証手法である。
さらに、チップが製造のために半導体ファウンダリーに送信される準備が整っているかどうかを判断する最終サインオフの土台としても機能する。
近年、技術が絶え間なく進歩するにつれて、金属のピッチが小さくなり、デバイスが増加するにつれて、経験豊富な人間設計者がMCMM(Multi-Corner Multi-Mode)のタイミングレポートからタイミング問題をデバッグする上で、より大きな課題と長いターンアラウンドタイムが生まれている。
その結果, タイミング問題をデバッグし, ターンアラウンド時間を短縮するためには, 効率的かつインテリジェントな方法論が不可欠である。
近年,Large Language Models (LLMs) は,言語理解や対話的意思決定において,推論やアクションを取り入れた様々なタスクにおいて,大きな可能性を秘めている。
本稿では,マルチLLMのタスク問題解決に活用されるタイミング分析エージェントを提案し,新しい階層的計画と問題解決の流れを取り入れて,商用ツールからのタイミングレポートの分析を自動化する。
さらに、TDRG(Timing Debug Relation Graph)を構築し、レポートと経験豊富なタイミングエンジニアのデバッグトレースの関係を関連付ける。
タイミング分析エージェントは、エージェントと符号化を含む新しいエージェント検索拡張生成(RAG)アプローチを用いて、開発されたTDRG上でデータを正確に取得する。
本研究では, 単レポートベンチマークにおける平均98%のパスレートと, 産業設計からのマルチレポートベンチマークに対する90%のパスレートを達成し, その有効性と適応性を示した。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Division-of-Thoughts: Harnessing Hybrid Language Model Synergy for Efficient On-Device Agents [5.566936703366701]
Division-of-Thoughts(DoT)は、ローカルとクラウドベースの言語モデル間のシナジーを活用する共同推論フレームワークである。
DoTは平均推論時間とAPIコストを66.12%と83.57%削減し、最高のベースライン手法で同等の推論精度を達成している。
論文 参考訳(メタデータ) (2025-02-06T02:40:25Z) - Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - Multi-Agent Sampling: Scaling Inference Compute for Data Synthesis with Tree Search-Based Agentic Collaboration [81.45763823762682]
本研究の目的は,マルチエージェントサンプリングによるデータ合成の問題を調べることでギャップを埋めることである。
逐次サンプリングプロセス中にワークフローが反復的に進化する木探索に基づくオーケストレーションエージェント(TOA)を紹介する。
アライメント、機械翻訳、数学的推論に関する実験は、マルチエージェントサンプリングが推論計算スケールとしてシングルエージェントサンプリングを著しく上回ることを示した。
論文 参考訳(メタデータ) (2024-12-22T15:16:44Z) - Explainable AI for Multivariate Time Series Pattern Exploration: Latent Space Visual Analytics with Temporal Fusion Transformer and Variational Autoencoders in Power Grid Event Diagnosis [1.170167705525779]
本稿では、時間融合変換器(TFT)と変分自動符号化器(VAE)の2つの生成AIモデルを統合する新しい視覚分析フレームワークを提案する。
複雑なパターンを低次元の潜在空間に還元し、PCA, t-SNE, UMAPなどの次元還元技術を用いて2次元でDBSCANで可視化する。
このフレームワークは電力グリッド信号データのケーススタディを通じて実証され、多様な根本原因を持つ障害や異常を含むマルチラベルグリッドイベントシグネチャを識別する。
論文 参考訳(メタデータ) (2024-12-20T17:41:11Z) - Progressive Multimodal Reasoning via Active Retrieval [64.74746997923967]
多段階多モーダル推論タスクは、大規模言語モデル(MLLM)に重大な課題をもたらす
本稿では,MLLMの推論能力の向上を目的とした汎用フレームワークAR-MCTSを提案する。
我々は,AR-MCTSがサンプリングの多様性と精度を最適化し,信頼性の高いマルチモーダル推論を実現することを示す。
論文 参考訳(メタデータ) (2024-12-19T13:25:39Z) - Towards Human-Level Understanding of Complex Process Engineering Schematics: A Pedagogical, Introspective Multi-Agent Framework for Open-Domain Question Answering [0.0]
化学・プロセス産業では、プロセス・フロー・ダイアグラム(PFD)とパイプ・アンド・インスツルメンテーション・ダイアグラム(P&ID)が設計、建設、保守に不可欠である。
生成型AIの最近の進歩は、ビジュアル質問回答(VQA)のプロセス図の理解と解釈の約束を示している。
本稿では,階層的かつマルチエージェントなRetrieval Augmented Generation(RAG)フレームワークを用いた,セキュアでオンプレミスなエンタープライズソリューションを提案する。
論文 参考訳(メタデータ) (2024-08-24T19:34:04Z) - CityGPT: Towards Urban IoT Learning, Analysis and Interaction with Multi-Agent System [4.612237040042468]
CityGPTはIoTデータの時間的分析を達成するために3つのエージェントを使用している。
我々は,大規模言語モデル(LLM)によって促進されたフレームワークを認証し,データの理解性を高めた。
実世界のデータを異なる時間で評価した結果、CityGPTフレームワークは、コンピューティングにおける堅牢な性能を保証できることが示されている。
論文 参考訳(メタデータ) (2024-05-23T15:27:18Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Multivariate Time Series characterization and forecasting of VoIP
traffic in real mobile networks [9.637582917616703]
モビリティシナリオにおけるリアルタイムトラフィック(例えばVoIP)の振る舞いを予測することは、オペレーターがネットワークインフラをよりよく計画するのに役立つ。
本研究では,実モバイル環境におけるVoIPトラフィックの重要/QoE記述子の予測分析を提案する。
論文 参考訳(メタデータ) (2023-07-13T09:21:39Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。