論文の概要: ForgeHLS: A Large-Scale, Open-Source Dataset for High-Level Synthesis
- arxiv url: http://arxiv.org/abs/2507.03255v1
- Date: Fri, 04 Jul 2025 02:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.638763
- Title: ForgeHLS: A Large-Scale, Open-Source Dataset for High-Level Synthesis
- Title(参考訳): ForgeHLS: 大規模でオープンソースの高レベル合成用データセット
- Authors: Zedong Peng, Zeju Li, Mingzhe Gao, Qiang Xu, Chen Zhang, Jieru Zhao,
- Abstract要約: さまざまなカテゴリにまたがる包括的サーキットデータセットであるForgeEDAを紹介する。
ForgeEDAには、レジスタ転送レベル(RTL)コード、ポストマッピング(PM)ネットリスト、配置されたネットリストなど、さまざまな回路表現が含まれている。
我々は、電力、性能、面積(PPA)最適化といった重要なタスクに対して、最先端のEDAアルゴリズムをベンチマークすることで、ForgeEDAのユーティリティを実証する。
- 参考スコア(独自算出の注目度): 13.87691887333415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce ForgeEDA, an open-source comprehensive circuit dataset across various categories. ForgeEDA includes diverse circuit representations such as Register Transfer Level (RTL) code, Post-mapping (PM) netlists, And-Inverter Graphs (AIGs), and placed netlists, enabling comprehensive analysis and development. We demonstrate ForgeEDA's utility by benchmarking state-of-the-art EDA algorithms on critical tasks such as Power, Performance, and Area (PPA) optimization, highlighting its ability to expose performance gaps and drive advancements. Additionally, ForgeEDA's scale and diversity facilitate the training of AI models for EDA tasks, demonstrating its potential to improve model performance and generalization. By addressing limitations in existing datasets, ForgeEDA aims to catalyze breakthroughs in modern IC design and support the next generation of innovations in EDA.
- Abstract(参考訳): さまざまなカテゴリにまたがる包括的サーキットデータセットであるForgeEDAを紹介する。
ForgeEDAには、レジスタ転送レベル(RTL)コード、ポストマッピング(PM)ネットリスト、And-Inverter Graphs(AIG)などの多様な回路表現が含まれており、包括的な分析と開発を可能にする。
我々は、電力、性能、面積(PPA)最適化などの重要なタスクに対して、最先端のEDAアルゴリズムをベンチマークすることで、ForgeEDAの実用性を実証し、パフォーマンスのギャップを露呈し、進歩を促進する能力を強調した。
さらに、ForgeEDAのスケールと多様性は、EDAタスクのためのAIモデルのトレーニングを促進し、モデルパフォーマンスと一般化を改善する可能性を示す。
既存のデータセットの制限に対処することによって、ForgeEDAは現代のIC設計におけるブレークスルーを触媒し、EDAの次世代のイノベーションをサポートすることを目指している。
関連論文リスト
- Deep Representation Learning for Electronic Design Automation [0.0]
表現学習は電子設計自動化(EDA)アルゴリズムによって有効な手法となった。
本稿では,EDAにおける表現学習の適用について検討し,基礎概念を取り上げ,先行研究やケーススタディを分析する。
画像ベースの手法、グラフベースのアプローチ、ハイブリッドマルチモーダルソリューションなどを含む主要な手法を提示し、ルーティング、タイミング、寄生予測における改善について説明する。
論文 参考訳(メタデータ) (2025-05-04T13:18:58Z) - OpenCodeInstruct: A Large-scale Instruction Tuning Dataset for Code LLMs [62.68905180014956]
我々は,500万の多様なサンプルからなる最大オープンアクセス命令チューニングデータセットであるOpenCodeInstructを紹介した。
各サンプルには、プログラミング質問、ソリューション、テストケース、実行フィードバック、LLM生成の品質評価が含まれている。
LLaMAやQwenなど,さまざまなベースモデルを,データセットを使用して複数のスケール(1B+,3B+,7B+)にわたって微調整します。
論文 参考訳(メタデータ) (2025-04-05T02:52:16Z) - UnitCoder: Scalable Iterative Code Synthesis with Unit Test Guidance [65.01483640267885]
大きな言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示してきたが、コード生成は依然として大きな課題である。
私たちは、モデル生成ユニットテストを活用してコード生成プロセスのガイドと検証を行う、システマティックパイプラインであるUnitCoderを紹介します。
我々の研究は、モデル生成単体テストを利用して、事前学習コーパスから高品質なコードデータの合成を誘導するスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-17T05:37:02Z) - AnyRefill: A Unified, Data-Efficient Framework for Left-Prompt-Guided Vision Tasks [116.8706375364465]
本稿では,多様な参照型視覚タスクに対処するため,新しいLPG(Left-Prompt-Guided)パラダイムを提案する。
本稿では,テキスト・ツー・イメージ(T2I)モデルを様々な視覚タスクに効果的に適用するAnyRefillを提案する。
論文 参考訳(メタデータ) (2025-02-16T15:12:40Z) - SnipGen: A Mining Repository Framework for Evaluating LLMs for Code [51.07471575337676]
言語モデル(LLM)は、コードリポジトリを含む広範なデータセットに基づいてトレーニングされる。
それらの有効性を評価することは、トレーニングに使用されるデータセットと評価に使用されるデータセットとが重複する可能性があるため、大きな課題となる。
SnipGenは、コード生成のために、様々な下流タスクをまたいだ迅速なエンジニアリングを活用するように設計された包括的なリポジトリマイニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-10T21:28:15Z) - A Survey of Research in Large Language Models for Electronic Design Automation [5.426530967206322]
大規模言語モデル (LLM) は変換技術として登場している。
この調査は、モデルアーキテクチャの進歩、さまざまなモデルサイズの影響、そして革新的なカスタマイズ技術に焦点を当てている。
EDA業界やAI研究者、高度なAI技術や電子設計の収束に関心のある人には、貴重な洞察を提供することを目指している。
論文 参考訳(メタデータ) (2025-01-16T16:51:59Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Deep Inverse Design for High-Level Synthesis [1.9029532975354944]
我々は,グラフニューラルネットワークと生成モデルを統合する新しいアプローチとして,HLSのためのDeep Inverse Design(DID4HLS)を提案する。
DID4HLSは、HLS後のデータから設計特徴の条件分布を学習することにより、計算集約アルゴリズムを目的としたハードウェア設計を反復的に最適化する。
提案手法は,4つの最先端DSEベースラインと比較して,基準セットまでの平均距離平均42.8%の改善を達成した。
論文 参考訳(メタデータ) (2024-07-11T18:13:38Z) - HLSFactory: A Framework Empowering High-Level Synthesis Datasets for Machine Learning and Beyond [3.206764939601044]
機械学習(ML)技術は、QoR予測と設計空間探索(DSE)のための高レベル合成(HLS)フローに適用されている。
高品質なHLSデータセットの不足とそのようなデータセットの構築の複雑さが課題である。
HLSFactoryは高品質なHLS設計データセットのキュレーションと生成を容易にするために設計された包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-01T19:02:18Z) - Skip the Benchmark: Generating System-Level High-Level Synthesis Data using Generative Machine Learning [8.416553728391309]
高レベル合成(HLS)設計空間探索(DSE)は、HLSプロセスにおいて最適なハードウェアソリューションを探索するための広く受け入れられているアプローチである。
いくつかのHLSベンチマークとデータセットは、研究コミュニティが彼らの方法論を評価するために利用できる。
本稿では,複雑なシステムレベルのHLS DSE実験を支援するのに十分頑健な合成データを生成するために,生成機械学習を用いた新しいアプローチであるVaeganを提案する。
論文 参考訳(メタデータ) (2024-04-23T05:32:22Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - EDALearn: A Comprehensive RTL-to-Signoff EDA Benchmark for Democratized and Reproducible ML for EDA Research [7.754108359835169]
我々はEDALearnを紹介した。EDALearnは、EDAの機械学習タスクに特化した、最初の包括的なオープンソースベンチマークスイートである。
このベンチマークスイートは、合成から物理実装までのエンドツーエンドのフローを示し、さまざまなステージにわたるデータ収集を強化する。
私たちの貢献はML-EDAドメインのさらなる進歩を促進することを目的としています。
論文 参考訳(メタデータ) (2023-12-04T06:51:46Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - HLSDataset: Open-Source Dataset for ML-Assisted FPGA Design using High
Level Synthesis [1.7795190822602627]
本稿では,HLSを用いたML支援FPGA設計のためのデータセットであるHLSDatasetを提案する。
データセットはPolybench、Machsuite、CHStone、Rossettaなど、広く使用されているHLS Cベンチマークから生成される。
生成されたVerilogサンプルの総数はFPGAタイプあたり9000近い。
論文 参考訳(メタデータ) (2023-02-17T17:00:12Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance
Text Classification [34.15923302216751]
本稿では,効率的なテキスト分類を支援するための簡易でプラグイン型のデータ拡張フレームワーク EPiDA を提案する。
EPiDAは、データ生成を制御するために、相対エントロピー(REM)と条件最小エントロピー(CEM)の2つのメカニズムを採用している。
EPiDAは効率的な分類訓練のための効率的で継続的なデータ生成をサポートする。
論文 参考訳(メタデータ) (2022-04-24T06:53:48Z) - Adaptive Linear Span Network for Object Skeleton Detection [56.78705071830965]
本研究では,適応線形スパンネットワーク(AdaLSN)を提案する。
AdaLSNは、精度とレイテンシのトレードオフを著しく高めることで、その汎用性を裏付ける。
また、エッジ検出や道路抽出といったイメージ・ツー・マスクのタスクに適用可能であることも示している。
論文 参考訳(メタデータ) (2020-11-08T12:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。