論文の概要: EDALearn: A Comprehensive RTL-to-Signoff EDA Benchmark for Democratized
and Reproducible ML for EDA Research
- arxiv url: http://arxiv.org/abs/2312.01674v1
- Date: Mon, 4 Dec 2023 06:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:59:00.050342
- Title: EDALearn: A Comprehensive RTL-to-Signoff EDA Benchmark for Democratized
and Reproducible ML for EDA Research
- Title(参考訳): EDALearn: 民主的で再現可能なEDA研究のための総合的なRTL-to-Signoff EDAベンチマーク
- Authors: Jingyu Pan, Chen-Chia Chang, Zhiyao Xie, Yiran Chen
- Abstract要約: 我々はEDALearnを紹介した。EDALearnは、EDAの機械学習タスクに特化した、最初の包括的なオープンソースベンチマークスイートである。
このベンチマークスイートは、合成から物理実装までのエンドツーエンドのフローを示し、さまざまなステージにわたるデータ収集を強化する。
私たちの貢献はML-EDAドメインのさらなる進歩を促進することを目的としています。
- 参考スコア(独自算出の注目度): 5.093676641214663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of Machine Learning (ML) in Electronic Design Automation
(EDA) for Very Large-Scale Integration (VLSI) design has garnered significant
research attention. Despite the requirement for extensive datasets to build
effective ML models, most studies are limited to smaller, internally generated
datasets due to the lack of comprehensive public resources. In response, we
introduce EDALearn, the first holistic, open-source benchmark suite
specifically for ML tasks in EDA. This benchmark suite presents an end-to-end
flow from synthesis to physical implementation, enriching data collection
across various stages. It fosters reproducibility and promotes research into ML
transferability across different technology nodes. Accommodating a wide range
of VLSI design instances and sizes, our benchmark aptly represents the
complexity of contemporary VLSI designs. Additionally, we provide an in-depth
data analysis, enabling users to fully comprehend the attributes and
distribution of our data, which is essential for creating efficient ML models.
Our contributions aim to encourage further advances in the ML-EDA domain.
- Abstract(参考訳): 電子設計自動化(EDA)における機械学習(ML)の適用は、超大規模統合(VLSI)設計において大きな注目を集めている。
効果的なMLモデルを構築するために広範なデータセットを必要とするが、ほとんどの研究は包括的な公開リソースが欠如しているため、より小さく内部的に生成されたデータセットに限られている。
そこで我々は,EDALearnを紹介した。EDALearnは,EDAにおけるMLタスク専用のオープンソースベンチマークスイートである。
このベンチマークスイートは、合成から物理実装までのエンドツーエンドのフローを示し、さまざまなステージにわたるデータ収集を強化する。
再現性を高め、さまざまな技術ノードにわたるML転送可能性の研究を促進する。
我々のベンチマークは、様々なVLSI設計事例とサイズを調整し、現代のVLSI設計の複雑さをうまく表している。
さらに、より詳細なデータ分析を提供し、効率的なMLモデルを作成する上で不可欠な、データの属性と分布を完全に理解できるようにする。
私たちの貢献はML-EDAドメインのさらなる進歩を促進することを目的としています。
関連論文リスト
- Large Language Models for Constructing and Optimizing Machine Learning Workflows: A Survey [3.340984908213717]
複雑なタスクに対処するための効果的な機械学習(ML)を構築することは、Automatic ML(AutoML)コミュニティの主要な焦点である。
最近、MLへのLLM(Large Language Models)の統合は、MLパイプラインのさまざまなステージを自動化し、拡張する大きな可能性を示している。
論文 参考訳(メタデータ) (2024-11-11T21:54:26Z) - Align$^2$LLaVA: Cascaded Human and Large Language Model Preference Alignment for Multi-modal Instruction Curation [56.75665429851673]
本稿では,人間とLLMの選好アライメントという2つのユニークな視点から導いた,新しい命令キュレーションアルゴリズムを提案する。
実験により,合成マルチモーダル命令を最大90%圧縮することにより,モデル性能の維持や改善が可能であることが示された。
論文 参考訳(メタデータ) (2024-09-27T08:20:59Z) - The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective [53.48484062444108]
モデルとデータの開発は2つの別々のパスではなく、むしろ相互接続であることがわかった。
一方,MLLMはデータ開発に役立てることができるため,MLLMの性能向上に寄与する。
MLLMコミュニティにおけるデータモデル共同開発を促進するために,データモデル共同開発の観点からMLLMに関連する既存の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2024-07-11T15:08:11Z) - Evaluating the Generalization Ability of Quantized LLMs: Benchmark, Analysis, and Toolbox [46.39670209441478]
大規模言語モデル(LLM)は、複数のシナリオでエキサイティングな進歩を見せている。
メモリフットプリントと推論コストを削減する効果的な方法として、量子化は低ビット幅での性能劣化にも直面する。
この研究は、評価システム、詳細な分析、一般的なツールボックスを含む、この研究トピックのための包括的なベンチマークスイートを提供する。
論文 参考訳(メタデータ) (2024-06-15T12:02:14Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Vision-Language Instruction Tuning: A Review and Analysis [52.218690619616474]
VLIT(Vision-Language Instruction Tuning)は、純粋なテキスト命令チューニングよりも複雑な特徴を示す。
既存のVLITデータセットの詳細な分類と、高品質なVLITデータが持つべき特性を識別する。
これらの特徴を既存のVLITデータ構築プロセスに導出する原理として取り入れることで、我々は広範囲な実験を行い、調整されたマルチモーダルLCMの性能に対する肯定的な影響を検証した。
論文 参考訳(メタデータ) (2023-11-14T14:02:32Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - Machine Learning for Electronic Design Automation: A Survey [23.803190584543863]
CMOS技術のダウンスケーリングにより、超大規模集積(VLSI)の設計複雑さが増大している。
機械学習(ML)の最近のブレークスルーとEDAタスクの複雑さの増大により、ESAタスクの解決にMLを組み込むことへの関心が高まっている。
論文 参考訳(メタデータ) (2021-01-10T12:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。