論文の概要: GenEDA: Unleashing Generative Reasoning on Netlist via Multimodal Encoder-Decoder Aligned Foundation Model
- arxiv url: http://arxiv.org/abs/2504.09485v1
- Date: Sun, 13 Apr 2025 08:56:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:49:13.988436
- Title: GenEDA: Unleashing Generative Reasoning on Netlist via Multimodal Encoder-Decoder Aligned Foundation Model
- Title(参考訳): GenEDA:マルチモーダルエンコーダデコーダアライメントファンデーションモデルによるNetlistのジェネレーティブ推論
- Authors: Wenji Fang, Jing Wang, Yao Lu, Shang Liu, Zhiyao Xie,
- Abstract要約: GenEDAは、回路エンコーダとデコーダを共有潜在空間内で整列させるフレームワークである。
このアーキテクチャに基づいて構築されたGenEDAは、ネットリスト上の前例のない3つの生成的推論タスクを可能にする。
- 参考スコア(独自算出の注目度): 8.115489346573918
- License:
- Abstract: The success of foundation AI has motivated the research of circuit foundation models, which are customized to assist the integrated circuit (IC) design process. However, existing pre-trained circuit models are typically limited to standalone encoders for predictive tasks or decoders for generative tasks. These two model types are developed independently, operate on different circuit modalities, and reside in separate latent spaces, which restricts their ability to complement each other for more advanced applications. In this work, we present GenEDA, the first framework that aligns circuit encoders with decoders within a shared latent space. GenEDA bridges the gap between graph-based circuit representations and text-based large language models (LLMs), enabling communication between their respective latent spaces. To achieve the alignment, we propose two paradigms that support both open-source trainable LLMs and commercial frozen LLMs. Built on this aligned architecture, GenEDA enables three unprecedented generative reasoning tasks over netlists, where the model reversely generates the high-level functionality from low-level netlists in different granularities. These tasks extend traditional gate-type prediction to direct generation of full-circuit functionality. Experiments demonstrate that GenEDA significantly boosts advanced LLMs' (e.g., GPT-4o and DeepSeek-V3) performance in all tasks.
- Abstract(参考訳): ファンデーションAIの成功は、集積回路(IC)設計プロセスを支援するためにカスタマイズされた回路基盤モデルの研究を動機付けている。
しかし、既存の事前学習回路モデルは通常、予測タスクのスタンドアロンエンコーダや生成タスクのデコーダに限られる。
これらの2つのモデルは独立して開発され、異なる回路モードで動作し、より高度な用途で相互補完する能力を制限するために別々の潜在空間に留まる。
本稿では,回路エンコーダとデコーダを協調する最初のフレームワークであるGenEDAについて述べる。
GenEDAはグラフベースの回路表現とテキストベースの大規模言語モデル(LLM)のギャップを埋め、それぞれの潜在空間間の通信を可能にする。
このアライメントを実現するために,オープンソーストレーニング可能なLDMと商用フリーズLDMの両方をサポートする2つのパラダイムを提案する。
このアライメントアーキテクチャに基づいて構築されたGenEDAは、3つの前例のない生成的推論タスクをネットリスト上で実現し、モデルが異なる粒度の低レベルのネットリストから高レベルの機能を逆に生成する。
これらのタスクは、従来のゲート型予測を全回路機能の直接生成に拡張する。
GenEDAは、全てのタスクにおいて高度なLLM(例えば、GPT-4o、DeepSeek-V3)の性能を大幅に向上させることを示した。
関連論文リスト
- SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - LaVin-DiT: Large Vision Diffusion Transformer [99.98106406059333]
LaVin-DiTは、20以上のコンピュータビジョンタスクを生成フレームワークで扱うために設計された、スケーラブルで統一された基盤モデルである。
視覚タスクの生成性能を最適化するための重要なイノベーションを紹介する。
このモデルは0.1Bから3.4Bのパラメータに拡張され、様々な視覚タスクにまたがる相当なスケーラビリティと最先端の性能を示す。
論文 参考訳(メタデータ) (2024-11-18T12:05:27Z) - Hierarchical Mixture of Experts: Generalizable Learning for High-Level Synthesis [43.612837464039686]
高レベル合成(HLS)は、FPGA(Field Programmable Gate Array)の設計において広く使われているツールである。
よりドメイン一般化可能なモデル構造として, 2段階の階層的エキスパート混合(MoE)を提案する。
低レベルのMoEでは、ノード、基本ブロック、グラフの3つの自然な粒度にMoEを適用する。
論文 参考訳(メタデータ) (2024-10-25T00:27:53Z) - NVLM: Open Frontier-Class Multimodal LLMs [64.00053046838225]
NVLM 1.0は、フロンティアクラスのマルチモーダル言語モデル(LLM)のファミリーであり、視覚言語タスクの最先端結果を実現する。
トレーニング効率とマルチモーダル推論能力を両立させる新しいアーキテクチャを提案する。
我々は、NVLM-1.0モデルのための生産級マルチモーダリティを開発し、視覚言語タスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T17:59:06Z) - Bidirectional Awareness Induction in Autoregressive Seq2Seq Models [47.82947878753809]
双方向認識誘導(BAI)は、ネットワーク内の要素のサブセットであるPivotsを利用して、自己回帰的制約を破ることなく双方向学習を行う訓練手法である。
特に,イメージキャプションでは2.4CIDEr,ニューラルマシン翻訳では4.96BLEU,テキスト要約では1.16ROUGEの増加が確認された。
論文 参考訳(メタデータ) (2024-08-25T23:46:35Z) - DeepGate3: Towards Scalable Circuit Representation Learning [9.910071321534682]
回路表現学習は電子設計自動化(EDA)の分野を前進させる有望な成果を示した
DeepGate Familyのような既存のモデルは、主にグラフニューラルネットワーク(GNN)を使用して、回路網リストをゲートレベルの埋め込みにエンコードする。
我々は,最初のGNN処理に従ってTransformerモジュールを統合する拡張アーキテクチャであるDeepGate3を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:21Z) - Jack of All Trades, Master of Some, a Multi-Purpose Transformer Agent [2.3967405016776384]
Jack of All Trades (JAT) は、シーケンシャルな意思決定タスクに最適化されたユニークな設計のトランスフォーマーベースのモデルである。
JATは、その種の最初のモデルはhttps://huggingface.co/jat-project/jatで完全にオープンソース化されている。
論文 参考訳(メタデータ) (2024-02-15T10:01:55Z) - Large Multi-Modal Models (LMMs) as Universal Foundation Models for
AI-Native Wireless Systems [57.41621687431203]
大規模言語モデル (LLM) と基礎モデルは6Gシステムのゲームチェンジャーとして最近注目されている。
本稿では,人工知能(AI)ネイティブネットワークの展開に適したユニバーサルファンデーションモデルを設計するための包括的ビジョンを提案する。
論文 参考訳(メタデータ) (2024-01-30T00:21:41Z) - All in One: Exploring Unified Vision-Language Tracking with Multi-Modal Alignment [39.54689489555342]
現在の視覚注入(VL)トラッキングフレームワークは、視覚特徴抽出器、言語特徴抽出器、融合モデルという3つの部分から構成される。
本稿では,一貫したトランスフォーマーバックボーンを採用することで,共同特徴抽出とインタラクションを学習するオールインワンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-07T03:51:21Z) - LegoNN: Building Modular Encoder-Decoder Models [117.47858131603112]
最先端のエンコーダ・デコーダモデルは、原子単位として構築され、訓練されたエンドツーエンドである。
モデルのどのコンポーネントも他のコンポーネントなしでは(再)使用できないため、部品の共有は不可能です。
LegoNNは、エンコーダ-デコーダアーキテクチャを、微調整を必要とせずに、その部品を他のタスクに適用できる方法で構築する手順である。
論文 参考訳(メタデータ) (2022-06-07T14:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。