論文の概要: ChatEDA: A Large Language Model Powered Autonomous Agent for EDA
- arxiv url: http://arxiv.org/abs/2308.10204v1
- Date: Sun, 20 Aug 2023 08:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:58:12.649244
- Title: ChatEDA: A Large Language Model Powered Autonomous Agent for EDA
- Title(参考訳): ChatEDA:EDAのための大規模言語モデル駆動自律エージェント
- Authors: Zhuolun He, Haoyuan Wu, Xinyun Zhang, Xufeng Yao, Su Zheng, Haisheng
Zheng, Bei Yu
- Abstract要約: 本稿では,大規模な言語モデルであるAutoMageによって強化されたEDAのための自律エージェントであるChatEDAを紹介する。
ChatEDAは、タスク計画、スクリプト生成、タスク実行を効果的に管理することで、登録-転送レベル(RTL)からグラフデータシステムバージョンII(GDSII)への設計フローを合理化する。
- 参考スコア(独自算出の注目度): 7.202924923538126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of a complex set of Electronic Design Automation (EDA) tools
to enhance interoperability is a critical concern for circuit designers. Recent
advancements in large language models (LLMs) have showcased their exceptional
capabilities in natural language processing and comprehension, offering a novel
approach to interfacing with EDA tools. This research paper introduces ChatEDA,
an autonomous agent for EDA empowered by a large language model, AutoMage,
complemented by EDA tools serving as executors. ChatEDA streamlines the design
flow from the Register-Transfer Level (RTL) to the Graphic Data System Version
II (GDSII) by effectively managing task planning, script generation, and task
execution. Through comprehensive experimental evaluations, ChatEDA has
demonstrated its proficiency in handling diverse requirements, and our
fine-tuned AutoMage model has exhibited superior performance compared to GPT-4
and other similar LLMs.
- Abstract(参考訳): 電子設計自動化(eda)ツールの複雑なセットの統合は、回路設計者にとって重要な関心事である。
大規模言語モデル(LLM)の最近の進歩は、自然言語処理と理解において、EDAツールと対面する新しいアプローチを提供する、優れた能力を示した。
本稿では,大規模な言語モデルであるAutoMageによって強化されたEDAの自律エージェントであるChatEDAを紹介し,エグゼクタとしてのEDAツールを補完する。
ChatEDAは、タスク計画、スクリプト生成、タスク実行を効果的に管理することで、登録-転送レベル(RTL)からグラフデータシステムバージョンII(GDSII)への設計フローを合理化する。
総合的な実験評価を通じて,ChatEDAは多様な要求に対処する能力を示し,我々の微調整オートマージモデルはGPT-4や他のLLMと比較して優れた性能を示した。
関連論文リスト
- Mixture-of-Instructions: Comprehensive Alignment of a Large Language Model through the Mixture of Diverse System Prompting Instructions [7.103987978402038]
我々はMixture-of-Instructions (MoI)と呼ばれる新しいテクニックを紹介する。
MoIは、言語モデルのアライメント効率を高めるために、多様なシステムプロンプトと組み合わせた命令結合戦略を採用している。
提案手法はオープンソースQwen-7B-chatモデルに適用され,Qwen-SFT-MoIの開発が完了した。
論文 参考訳(メタデータ) (2024-04-29T03:58:12Z) - Automated User Story Generation with Test Case Specification Using Large Language Model [0.0]
要件文書からユーザストーリーを自動生成するツール「GeneUS」を開発した。
アウトプットはフォーマットで提供され、ダウンストリーム統合の可能性は人気のあるプロジェクト管理ツールに開放されます。
論文 参考訳(メタデータ) (2024-04-02T01:45:57Z) - Generation of Asset Administration Shell with Large Language Model Agents: Interoperability in Digital Twins with Semantic Node [0.6749750044497732]
本研究では,デジタル双対モデリングのためのアセット管理シェル(AAS)インスタンス作成を支援する新しいアプローチを提案する。
テキストデータのセマンティックな意味を捉えるために「意味ノード」データ構造を構築した。
大規模言語モデルを用いたシステムは、"セマンティックノード"を処理し、AASインスタンスモデルを生成するように設計され、実装されている。
論文 参考訳(メタデータ) (2024-03-25T21:37:30Z) - EHRAgent: Code Empowers Large Language Models for Few-shot Complex
Tabular Reasoning on Electronic Health Records [48.9788858020623]
大規模言語モデル(LLM)は、計画とツールの利用において例外的な能力を示した。
コードインタフェースを備えたLLMエージェントであるEHRAgentを提案し,マルチタブラル推論のためのコードの自動生成と実行を行う。
論文 参考訳(メタデータ) (2024-01-13T18:09:05Z) - AUTOACT: Automatic Agent Learning from Scratch via Self-Planning [56.81725335882185]
AutoActは、大規模アノテートデータやクローズドソースモデルからの合成軌跡に依存しない自動エージェント学習フレームワークである。
我々は異なるLLMを用いて総合的な実験を行い、AutoActは様々な強力なベースラインと比較して優れた性能または並列性能が得られることを示した。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - EcomGPT: Instruction-tuning Large Language Models with Chain-of-Task
Tasks for E-commerce [68.72104414369635]
本稿では,約250万の命令データを持つ電子商取引指導データセットであるEcomInstructを提案する。
EcomGPTは、Eコマースタスクにおけるクロスデータセット/タスクの一般化という観点で、ChatGPTを上回っている。
論文 参考訳(メタデータ) (2023-08-14T06:49:53Z) - AutoML-GPT: Automatic Machine Learning with GPT [74.30699827690596]
本稿では,タスク指向のプロンプトを開発し,大規模言語モデル(LLM)を自動的に活用して学習パイプラインを自動化することを提案する。
本稿では,多様なAIモデルのブリッジとしてGPTを用いたAutoML-GPTを提案する。
このアプローチはコンピュータビジョン、自然言語処理、その他の課題領域において顕著な結果をもたらす。
論文 参考訳(メタデータ) (2023-05-04T02:09:43Z) - Machine Learning for Electronic Design Automation: A Survey [23.803190584543863]
CMOS技術のダウンスケーリングにより、超大規模集積(VLSI)の設計複雑さが増大している。
機械学習(ML)の最近のブレークスルーとEDAタスクの複雑さの増大により、ESAタスクの解決にMLを組み込むことへの関心が高まっている。
論文 参考訳(メタデータ) (2021-01-10T12:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。