論文の概要: EDALearn: A Comprehensive RTL-to-Signoff EDA Benchmark for Democratized
and Reproducible ML for EDA Research
- arxiv url: http://arxiv.org/abs/2312.01674v1
- Date: Mon, 4 Dec 2023 06:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:59:00.050342
- Title: EDALearn: A Comprehensive RTL-to-Signoff EDA Benchmark for Democratized
and Reproducible ML for EDA Research
- Title(参考訳): EDALearn: 民主的で再現可能なEDA研究のための総合的なRTL-to-Signoff EDAベンチマーク
- Authors: Jingyu Pan, Chen-Chia Chang, Zhiyao Xie, Yiran Chen
- Abstract要約: 我々はEDALearnを紹介した。EDALearnは、EDAの機械学習タスクに特化した、最初の包括的なオープンソースベンチマークスイートである。
このベンチマークスイートは、合成から物理実装までのエンドツーエンドのフローを示し、さまざまなステージにわたるデータ収集を強化する。
私たちの貢献はML-EDAドメインのさらなる進歩を促進することを目的としています。
- 参考スコア(独自算出の注目度): 5.093676641214663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of Machine Learning (ML) in Electronic Design Automation
(EDA) for Very Large-Scale Integration (VLSI) design has garnered significant
research attention. Despite the requirement for extensive datasets to build
effective ML models, most studies are limited to smaller, internally generated
datasets due to the lack of comprehensive public resources. In response, we
introduce EDALearn, the first holistic, open-source benchmark suite
specifically for ML tasks in EDA. This benchmark suite presents an end-to-end
flow from synthesis to physical implementation, enriching data collection
across various stages. It fosters reproducibility and promotes research into ML
transferability across different technology nodes. Accommodating a wide range
of VLSI design instances and sizes, our benchmark aptly represents the
complexity of contemporary VLSI designs. Additionally, we provide an in-depth
data analysis, enabling users to fully comprehend the attributes and
distribution of our data, which is essential for creating efficient ML models.
Our contributions aim to encourage further advances in the ML-EDA domain.
- Abstract(参考訳): 電子設計自動化(EDA)における機械学習(ML)の適用は、超大規模統合(VLSI)設計において大きな注目を集めている。
効果的なMLモデルを構築するために広範なデータセットを必要とするが、ほとんどの研究は包括的な公開リソースが欠如しているため、より小さく内部的に生成されたデータセットに限られている。
そこで我々は,EDALearnを紹介した。EDALearnは,EDAにおけるMLタスク専用のオープンソースベンチマークスイートである。
このベンチマークスイートは、合成から物理実装までのエンドツーエンドのフローを示し、さまざまなステージにわたるデータ収集を強化する。
再現性を高め、さまざまな技術ノードにわたるML転送可能性の研究を促進する。
我々のベンチマークは、様々なVLSI設計事例とサイズを調整し、現代のVLSI設計の複雑さをうまく表している。
さらに、より詳細なデータ分析を提供し、効率的なMLモデルを作成する上で不可欠な、データの属性と分布を完全に理解できるようにする。
私たちの貢献はML-EDAドメインのさらなる進歩を促進することを目的としています。
関連論文リスト
- Characterization of Large Language Model Development in the Datacenter [57.49531095113406]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation
in ultra low-data regimes [62.94611066903098]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Vision-Language Instruction Tuning: A Review and Analysis [52.218690619616474]
VLIT(Vision-Language Instruction Tuning)は、純粋なテキスト命令チューニングよりも複雑な特徴を示す。
既存のVLITデータセットの詳細な分類と、高品質なVLITデータが持つべき特性を識別する。
これらの特徴を既存のVLITデータ構築プロセスに導出する原理として取り入れることで、我々は広範囲な実験を行い、調整されたマルチモーダルLCMの性能に対する肯定的な影響を検証した。
論文 参考訳(メタデータ) (2023-11-14T14:02:32Z) - Model Share AI: An Integrated Toolkit for Collaborative Machine Learning
Model Development, Provenance Tracking, and Deployment in Python [0.0]
モデル共有AI(AIMS)は、コラボレーティブモデル開発、モデル前駆者追跡、モデルデプロイメントを合理化するように設計された、使いやすいMLOpsプラットフォームである。
AIMSは、協調的なプロジェクト空間と、見当たらない評価データに基づいてモデル提出をランク付けする標準化されたモデル評価プロセスを備えている。
AIMSでは、Scikit-Learn、Keras、PyTorch、ONNXで構築されたMLモデルを、ライブREST APIや自動生成されたWebアプリにデプロイすることができる。
論文 参考訳(メタデータ) (2023-09-27T15:24:39Z) - Large Language Models as Data Preprocessors [10.914067455923847]
OpenAIのGPTシリーズとMetaのLLaMAに代表されるLarge Language Models (LLMs)は、人工知能において大きな進歩を遂げている。
この研究は、LLMの応用を拡大し、データ前処理におけるその可能性を探る。
我々は,最先端のプロンプト技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Towards Collaborative Intelligence: Routability Estimation based on
Decentralized Private Data [33.22449628584873]
本研究では,EDAにおける機械学習アプリケーションに対するフェデレートラーニングに基づくアプローチを提案する。
このアプローチでは、MLモデルを複数のクライアントのデータで協調的にトレーニングできるが、データのプライバシを尊重するためのデータへの明示的なアクセスは行わない。
包括的データセットの実験により、協調トレーニングは個々のローカルモデルと比較して精度を11%向上することが示された。
論文 参考訳(メタデータ) (2022-03-30T02:35:40Z) - Machine Learning for Electronic Design Automation: A Survey [23.803190584543863]
CMOS技術のダウンスケーリングにより、超大規模集積(VLSI)の設計複雑さが増大している。
機械学習(ML)の最近のブレークスルーとEDAタスクの複雑さの増大により、ESAタスクの解決にMLを組み込むことへの関心が高まっている。
論文 参考訳(メタデータ) (2021-01-10T12:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。