論文の概要: D2S-FLOW: Automated Parameter Extraction from Datasheets for SPICE Model Generation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2502.16540v2
- Date: Wed, 04 Jun 2025 13:17:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 16:24:48.883867
- Title: D2S-FLOW: Automated Parameter Extraction from Datasheets for SPICE Model Generation Using Large Language Models
- Title(参考訳): D2S-FLOW:大規模言語モデルを用いたSPICEモデル生成のためのデータシートからのパラメータ自動抽出
- Authors: Hong Cai Chen, Yi Pin Xu, Yang Zhang,
- Abstract要約: D2S-FLOWは、高精度で効率の良いSPICEモデルを生成する自動化フレームワークである。
これは、構造化されていないドキュメントや一貫性のない命名規則を扱う際の精度を高めるワークフローを使用している。
これは0.86のエクサクトマッチ(EM)、0.92のF1スコア、0.96のエクサクト正確度(EC)を達成し、それぞれ19.4%、5.7%、13.1%という最強のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 3.7324910012003656
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In electronic design, engineers often manually search through extensive documents to retrieve component parameters required for constructing SPICE models, a process that is both labor-intensive and time-consuming. To address this challenge, we present an automated framework called D2S-FLOW that leverages large language models (LLMs) to extract electrical parameters from datasheets and generate SPICE models with high precision and efficiency, significantly reducing the need for manual intervention. Unlike traditional RAG systems, D2S-FLOW employs a workflow to enhance precision in handling unstructured documents and inconsistent naming conventions through three innovative mechanisms: Attention-Guided Document Focusing (AGDF), Hierarchical Document-Enhanced Retrieval (HDER), and Heterogeneous Named Entity Normalization (HNEN). AGDF narrows retrieval to user-selected documents, HDER utilizes document structure for precise parameter localization, and HNEN standardizes terminology via semantic inference. Experimental results demonstrate that the framework achieves an Exact Match (EM) of 0.86, an F1 score of 0.92, and an Exact Correctness (EC) of 0.96, outperforming the strongest baseline by 19.4%, 5.7%, and 13.1%, respectively. Additionally, it reduces API token consumption by 38% and minimizes the irrelevant information ratio to 4%, showcasing substantial improvements in resource efficiency. This research provides an effective automated solution for circuit design.
- Abstract(参考訳): 電子設計において、エンジニアはしばしば、労働集約的かつ時間を要するプロセスであるSPICEモデルを構築するのに必要なコンポーネントパラメータを取得するために、広範囲なドキュメントを手動で検索する。
この課題に対処するために,大規模な言語モデル(LLM)を活用してデータシートから電気パラメータを抽出し,高精度かつ効率よくSPICEモデルを生成するD2S-FLOWという自動フレームワークを提案する。
従来のRAGシステムとは異なり、D2S-FLOWは、注意誘導文書焦点付け(AGDF)、階層的文書強調検索(HDER)、異種名前付きエンティティ正規化(HNEN)という3つの革新的なメカニズムを通じて、非構造化文書や一貫性のない命名規則を扱う際の精度を高めるワークフローを採用している。
AGDFは検索をユーザ選択のドキュメントに絞り込み、HDERは正確なパラメータローカライゼーションにドキュメント構造を使用し、HNENはセマンティック推論を通じて用語を標準化する。
実験結果から,F1スコアが0.86,F1スコアが0.92,ECが0.96となり,それぞれ19.4%,5.7%,13.1%と最強のベースラインを上回った。
さらに、APIトークンの消費を38%削減し、関連のない情報の比率を4%に抑え、リソース効率を大幅に改善した。
本研究は,回路設計における効率的な自動解法を提供する。
関連論文リスト
- ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - TD3: Tucker Decomposition Based Dataset Distillation Method for Sequential Recommendation [50.23504065567638]
本稿では,メタラーニングフレームワークにおける textbfDataset textbfDistillation 手法である textbfTD3 を紹介する。
TD3は、オリジナルのデータから完全に表現力のある合成配列の要約を蒸留する。
拡張技術により、学習者は合成要約を忠実に適合させ、アンプループでの正確な更新を確実にすることができる。
論文 参考訳(メタデータ) (2025-02-05T03:13:25Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - DELIFT: Data Efficient Language model Instruction Fine Tuning [13.538140114667772]
本稿では,3段階の微調整におけるデータ選択を体系的に最適化する新しいアルゴリズムであるDELIFTを紹介する。
さまざまなタスクやモデルスケールにわたる実験により、DELIFTはパフォーマンスを損なうことなく、微調整データサイズを最大70%削減できることが示された。
論文 参考訳(メタデータ) (2024-11-07T04:38:29Z) - REP: Resource-Efficient Prompting for Rehearsal-Free Continual Learning [23.92661395403251]
近年のリハーサルフリーな手法は,視覚関連連続学習(CL)とドリフトデータに優れ,資源効率に欠ける。
本稿では,Resource-Efficient Prompting(REP)を提案する。
提案手法は高速なプロンプト選択を用いて、注意深く設定されたモデルを用いて入力データを洗練する。
論文 参考訳(メタデータ) (2024-06-07T09:17:33Z) - Refining Joint Text and Source Code Embeddings for Retrieval Task with Parameter-Efficient Fine-Tuning [0.0]
そこで本研究では,それを利用した微調整フレームワークを提案する。
PEFT(Efficient Fine-Tuning)技術。
提案する微調整フレームワークは,最大で0.4%のパラメータをチューニングすることで,コードテキスト検索性能を向上させる可能性を実証した。
論文 参考訳(メタデータ) (2024-05-07T08:50:25Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Surrogate Modelling for Injection Molding Processes using Machine
Learning [0.23090185577016442]
射出成形は、複雑なプラスチックオブジェクトをモデル化するための最も一般的な製造方法の1つである。
モルドフローシミュレーションプロジェクトからのデータの抽出を含むデータ処理パイプラインのベースラインを提案する。
我々は,時間と偏向分布予測のための機械学習モデルを評価し,MSEおよびRMSEメトリクスのベースライン値を提供する。
論文 参考訳(メタデータ) (2021-07-30T12:13:52Z) - FIST: A Feature-Importance Sampling and Tree-Based Method for Automatic
Design Flow Parameter Tuning [27.08970520268831]
限られた試行数で最高の設計品質を見つけることを目的とした,機械学習に基づく自動パラメータチューニング手法を提案する。
我々は最先端のXGBoostモデルを活用し、オーバーフィッティングを克服する新しい動的ツリー手法を提案する。
ベンチマーク回路の実験結果から,本手法は設計品質の25%向上やサンプリングコストの低減を実現していることがわかった。
論文 参考訳(メタデータ) (2020-11-26T23:13:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。