論文の概要: EDA Corpus: A Large Language Model Dataset for Enhanced Interaction with OpenROAD
- arxiv url: http://arxiv.org/abs/2405.06676v1
- Date: Sat, 4 May 2024 21:29:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 03:27:39.854081
- Title: EDA Corpus: A Large Language Model Dataset for Enhanced Interaction with OpenROAD
- Title(参考訳): EDA Corpus: OpenROADとのインタラクションを強化するための大規模言語モデルデータセット
- Authors: Bing-Yue Wu, Utsav Sharma, Sai Rahul Dhanvi Kankipati, Ajay Yadav, Bintu Kappil George, Sai Ritish Guntupalli, Austin Rovinski, Vidya A. Chhabria,
- Abstract要約: 我々は、広く採用されているオープンソースのEDAツールチェーンであるOpenROAD向けに、オープンソースデータセットを提示する。
データセットには1000以上のデータポイントがあり、 (i) 質問プロンプトからなるペアセットと (ii) コードプロンプトとそれに対応するOpenROADスクリプトで構成されるペアセットの2つのフォーマットで構成されている。
- 参考スコア(独自算出の注目度): 0.2581187101462483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) serve as powerful tools for design, providing capabilities for both task automation and design assistance. Recent advancements have shown tremendous potential for facilitating LLM integration into the chip design process; however, many of these works rely on data that are not publicly available and/or not permissively licensed for use in LLM training and distribution. In this paper, we present a solution aimed at bridging this gap by introducing an open-source dataset tailored for OpenROAD, a widely adopted open-source EDA toolchain. The dataset features over 1000 data points and is structured in two formats: (i) a pairwise set comprised of question prompts with prose answers, and (ii) a pairwise set comprised of code prompts and their corresponding OpenROAD scripts. By providing this dataset, we aim to facilitate LLM-focused research within the EDA domain. The dataset is available at https://github.com/OpenROAD-Assistant/EDA-Corpus.
- Abstract(参考訳): 大規模言語モデル(LLM)は設計の強力なツールとして機能し、タスク自動化と設計支援の両方の機能を提供する。
近年の進歩は、LLMをチップ設計プロセスに統合するための大きな可能性を示しているが、これらの研究の多くは、LLMのトレーニングと配布に使用するために、公開されていないデータや/または許可されていないデータに依存している。
本稿では,広く採用されているオープンソースEDAツールチェーンであるOpenROADに適したオープンソースデータセットを導入することで,このギャップを埋めることを目的としたソリューションを提案する。
データセットには1000以上のデータポイントがあり、以下の2つのフォーマットで構成されている。
一 散文の解答を伴う質問書からなる一対の集合
(ii)コードプロンプトと対応するOpenROADスクリプトからなるペアセット。
このデータセットを提供することで、EDA領域内でLLMに焦点を当てた研究を促進することを目指している。
データセットはhttps://github.com/OpenROAD-Assistant/EDA-Corpusで公開されている。
関連論文リスト
- ToolBridge: An Open-Source Dataset to Equip LLMs with External Tool Capabilities [43.232034005763005]
本稿では、言語モデルに外部ツールの活用方法を学ぶためのデータセット構築に関する詳細なプロセスを明らかにすることを目的とする。
ToolBridgeは、一般的なオープンアクセスデータセットの集合を生データセットプールとして使用することを提案している。
これらのキュレートされたデータエントリの微調整を監督することにより、LLMは予測精度を高めるために、適切なコンテキストで外部ツールを呼び出すことができる。
論文 参考訳(メタデータ) (2024-10-08T20:54:40Z) - ORAssistant: A Custom RAG-based Conversational Assistant for OpenROAD [0.0]
Retrieval-Augmented Generation(RAG)に基づくOpenROADの対話アシスタントORAsistant
ORAsistantは、一般的なユーザクエリにコンテキスト固有の応答を提供することで、RTL-GDSIIからOpenROADフローのユーザエクスペリエンスを改善することを目的としている。
ORAsistantの構築とテストには,基本LLMモデルとしてGoogle Geminiを使用します。
論文 参考訳(メタデータ) (2024-10-04T18:22:58Z) - TART: An Open-Source Tool-Augmented Framework for Explainable Table-based Reasoning [61.14586098005874]
現在のLarge Language Models (LLM) は、テーブル構造を理解し、正確な数値推論を適用する能力に制限がある。
LLMと特殊なツールを統合するTART(Tool-Augmented Reasoning framework for Tables)を紹介した。
TARTには、正確なデータ表現を保証するテーブルフォーマッター、特定の計算ツールを開発するツールメーカー、説明可能性を維持するための説明ジェネレータの3つの重要なコンポーネントが含まれている。
論文 参考訳(メタデータ) (2024-09-18T06:19:59Z) - Sketch: A Toolkit for Streamlining LLM Operations [51.33202045501429]
大規模言語モデル(LLM)は大きな成功を収めた。
アウトプットフォーマットの柔軟性は、モデルのアウトプットを制御および活用する上での課題を引き起こします。
スケッチ(Sketch)は、多種多様な分野にわたるLCM操作を合理化するための革新的なツールキットである。
論文 参考訳(メタデータ) (2024-09-05T08:45:44Z) - MMM: Multilingual Mutual Reinforcement Effect Mix Datasets & Test with Open-domain Information Extraction Large Language Models [10.242002062961083]
英語,日本語,中国語の21のサブデータセットを含むMultilingual MRE混合データセット(MMM)を提案する。
また,Large Language Models (LLM) を用いたデータセット翻訳手法を提案する。
オープンドメイン情報抽出大言語モデル(OIELLM)を学習するための統合入力出力フレームワークを開発する。
論文 参考訳(メタデータ) (2024-07-15T17:50:43Z) - The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective [53.48484062444108]
モデルとデータの開発は2つの別々のパスではなく、むしろ相互接続であることがわかった。
一方,MLLMはデータ開発に役立てることができるため,MLLMの性能向上に寄与する。
MLLMコミュニティにおけるデータモデル共同開発を促進するために,データモデル共同開発の観点からMLLMに関連する既存の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2024-07-11T15:08:11Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - FOFO: A Benchmark to Evaluate LLMs' Format-Following Capability [70.84333325049123]
FoFoは、大規模言語モデル(LLM)の複雑なドメイン固有のフォーマットに従う能力を評価するための先駆的なベンチマークである。
本稿では,大規模言語モデル(LLM)の複雑なドメイン固有フォーマットに従う能力を評価するための先駆的ベンチマークであるFoFoを提案する。
論文 参考訳(メタデータ) (2024-02-28T19:23:27Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - An Exploratory Study on Utilising the Web of Linked Data for Product
Data Mining [3.7376948366228175]
この研究は、構造化されたデータを利用して、製品分類とリンクに使用される言語リソースを作成する方法を研究するためのeコマース領域に焦点を当てている。
我々は、数億の構造化されたデータポイントをRDF n-quadsの形で処理し、後に言語リソースを作成するために3つの異なる方法で使用される製品関連コーパスの数十万ワードを作成します。
評価の結果,単語の埋め込みは両タスクの精度を向上させる上で最も信頼性が高く一貫した手法であることが示唆された。
論文 参考訳(メタデータ) (2021-09-03T09:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。