論文の概要: Schemato -- An LLM for Netlist-to-Schematic Conversion
- arxiv url: http://arxiv.org/abs/2411.13899v1
- Date: Thu, 21 Nov 2024 07:21:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:18:36.370828
- Title: Schemato -- An LLM for Netlist-to-Schematic Conversion
- Title(参考訳): Schemato -- Netlist-to-Schematic ConversionのためのLLM
- Authors: Ryoga Matsuo, Stefan Uhlich, Arun Venkitaraman, Andrea Bonetti, Chia-Yu Hsieh, Ali Momeni, Lukas Mauch, Augusto Capone, Eisaku Ohbuchi, Lorenzo Servadei,
- Abstract要約: MachineSpiceモデルは、特にアナログ回路において進歩する回路設計である。
通常、人間の解釈能力に欠けるネットリストを生成する。
本稿では,ML生成したネットリストを高速かつ正確に解釈可能なスキーマに変換することを提案する。
- 参考スコア(独自算出の注目度): 5.419903684361424
- License:
- Abstract: Machine learning models are advancing circuit design, particularly in analog circuits. They typically generate netlists that lack human interpretability. This is a problem as human designers heavily rely on the interpretability of circuit diagrams or schematics to intuitively understand, troubleshoot, and develop designs. Hence, to integrate domain knowledge effectively, it is crucial to translate ML-generated netlists into interpretable schematics quickly and accurately. We propose Schemato, a large language model (LLM) for netlist-to-schematic conversion. In particular, we consider our approach in the two settings of converting netlists to .asc files for LTSpice and LATEX files for CircuiTikz schematics. Experiments on our circuit dataset show that Schemato achieves up to 93% compilation success rate for the netlist-to-LaTeX conversion task, surpassing the 26% rate scored by the state-of-the-art LLMs. Furthermore, our experiments show that Schemato generates schematics with a mean structural similarity index measure that is 3xhigher than the best performing LLMs, therefore closer to the reference human design.
- Abstract(参考訳): 機械学習モデルは、特にアナログ回路において、回路設計を進歩させている。
通常、人間の解釈能力に欠けるネットリストを生成する。
これは、人間の設計者が直感的に理解し、トラブルシュートし、設計を開発するために回路図や設計図の解釈可能性に大きく依存しているためである。
したがって、ドメイン知識を効果的に統合するためには、ML生成したネットリストを解釈可能なスキーマに迅速かつ正確に翻訳することが不可欠である。
本稿では,大規模言語モデル(LLM)であるSchematoを提案する。
特に、ネットリストを.NETに変換する2つの設定において、我々のアプローチを検討します。
asc file for LTSpice と LATEX file for CircuiTikz schematics.asc file for LTSpice と LATEX file for CircuiTikz schematics.
回路データセットを用いた実験により,SchematoはネットリストからLaTeX変換タスクのコンパイル成功率を最大93%達成し,最先端のLCMの26%を上回った。
さらに,本実験により, 平均構造類似度指数測定値が最良性能のLCMよりも3倍高く, 基準設計に近づいた設計結果が得られた。
関連論文リスト
- DeepCell: Multiview Representation Learning for Post-Mapping Netlists [11.789986571844535]
DeepCellはPMネットリストとAIGの両方からの構造的および機能的な洞察を統合する表現学習フレームワークである。
コアとなるDeepCellは、PMネットリスト表現を自己管理的に洗練する新しいマスク回路モデリング(MCM)メカニズムを採用している。
DeepCellはPMネットリストの表現に新しいベンチマークを設定し、予測精度と再現精度で既存の手法を上回っている。
論文 参考訳(メタデータ) (2025-02-05T02:39:47Z) - AnalogXpert: Automating Analog Topology Synthesis by Incorporating Circuit Design Expertise into Large Language Models [10.986618360243526]
本稿では,実用的なトポロジ合成問題の解決を目的としたLLMベースのエージェントであるAnalogXpertを提案する。
まず、アナログトポロジをSPICEコードとして表現し、設計空間を減らすためにサブ回路ライブラリを導入する。
第2に、CoTと非コンテキスト学習技術を用いて、問題を2つのサブタスクに分解する。
第3に,LLMが初期設計の誤りを漸進的に修正できる証明読解戦略を導入する。
論文 参考訳(メタデータ) (2024-12-17T09:08:08Z) - SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - The Graph's Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation [34.37154877681809]
本研究は,HDLコードから直接回路品質を推定するための予測ネットワークを用いて,大規模言語モデル(LLM)を拡張することを提案する。
性能を向上させるために、Look-Up Table (LUT)グラフでトレーニングされたグラフニューラルネットワーク(GNN)の埋め込みを使用してモデルを正規化する。
提案手法は,既存のベンチマークOpenABCDにおけるRTLレベルの推定手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T04:20:10Z) - SOLO: A Single Transformer for Scalable Vision-Language Modeling [74.05173379908703]
我々はvisiOn-Language mOdelingのための単一変換器SOLOを提案する。
SOLOのような統一された単一トランスフォーマーアーキテクチャは、LVLMにおけるこれらのスケーラビリティ上の懸念に効果的に対処する。
本稿では,オープンソースの7B LVLMであるSOLOの開発のための,最初のオープンソーストレーニングレシピを紹介する。
論文 参考訳(メタデータ) (2024-07-08T22:40:15Z) - AMSNet: Netlist Dataset for AMS Circuits [8.601352527168821]
我々は、スキーマをネットリストに変換する自動手法を開発し、データセットAMSNetを作成する。
サイズが大きくなるにつれて、AMSNetはAMS回路設計におけるMLLMアプリケーションの探索を著しく容易にする。
論文 参考訳(メタデータ) (2024-05-15T02:46:04Z) - Image2Sentence based Asymmetrical Zero-shot Composed Image Retrieval [92.13664084464514]
合成画像検索(CIR)の課題は,検索画像とユーザの意図を記述したテキストに基づいて画像を取得することである。
既存の手法は、CIRタスクにおける高度な大規模視覚言語(VL)モデルにおいて大きな進歩を遂げているが、それらは一般的に、モデルトレーニングのためのラベル付き三重項の欠如とリソース制限された環境への展開の困難という2つの大きな問題に悩まされている。
本稿では、VLモデルを利用して合成学習のためのラベルなし画像のみに依存する画像2Sentenceに基づく非対称ゼロショット合成画像検索(ISA)を提案する。
論文 参考訳(メタデータ) (2024-03-03T07:58:03Z) - DiagrammerGPT: Generating Open-Domain, Open-Platform Diagrams via LLM Planning [62.51232333352754]
テキスト・ツー・イメージ(T2I)世代はここ数年で著しい成長を遂げている。
それにもかかわらず、T2Iモデルでダイアグラムを生成する作業はほとんど行われていない。
本稿では,新しい2段階のテキスト・ツー・ダイアグラム生成フレームワークであるDiagrammerGPTを紹介する。
我々のフレームワークは、既存のT2Iモデルを上回る精度で、より正確なダイアグラムを生成する。
論文 参考訳(メタデータ) (2023-10-18T17:37:10Z) - Modality-Aware Triplet Hard Mining for Zero-shot Sketch-Based Image
Retrieval [51.42470171051007]
本稿では,ZES-SBIR(Zero-Shot Sketch-Based Image Retrieval)問題に,クロスモダリティメトリック学習の観点から取り組む。
DMLにおける2つの基本的な学習手法、例えば分類訓練とペアトレーニングを組み合わせることで、ZS-SBIRの強力なベースラインを構築した。
モータリティ・アウェア・トリプルト・ハード・マイニング(MATHM)は3種類のペア・ラーニングによってベースラインを向上することを示す。
論文 参考訳(メタデータ) (2021-12-15T08:36:44Z) - Modeling Gate-Level Abstraction Hierarchy Using Graph Convolutional
Neural Networks to Predict Functional De-Rating Factors [0.0]
グラフ畳み込みネットワーク(GCN)を用いたゲートレベルのネットリストのモデル化手法を提案する。
モデルは、与えられた回路のシーケンシャル要素の全体的な機能劣化因子を予測する。
論文 参考訳(メタデータ) (2021-04-05T08:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。