論文の概要: AnalogSeeker: An Open-source Foundation Language Model for Analog Circuit Design
- arxiv url: http://arxiv.org/abs/2508.10409v1
- Date: Thu, 14 Aug 2025 07:32:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.212057
- Title: AnalogSeeker: An Open-source Foundation Language Model for Analog Circuit Design
- Title(参考訳): AnalogSeeker: アナログ回路設計のためのオープンソースの基礎言語モデル
- Authors: Zihao Chen, Ji Zhuang, Jinyi Shen, Xiaoyue Ke, Xinyi Yang, Mingjie Zhou, Zhuoyao Du, Xu Yan, Zhouyang Wu, Zhenyu Xu, Jiangli Huang, Li Shang, Xuan Zeng, Fan Yang,
- Abstract要約: 本稿ではアナログ回路設計のためのオープンソースの基礎言語モデルであるAnalogSeekerを提案する。
関連分野にわたる高品質でアクセシブルな教科書は、体系的にキュレーションされ、テキストドメインコーパスにクリーン化される。
実際、我々はQwen2.5-32B-Instructモデルを用いてAnalogSeekerを得る。
- 参考スコア(独自算出の注目度): 13.492291969513143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose AnalogSeeker, an effort toward an open-source foundation language model for analog circuit design, with the aim of integrating domain knowledge and giving design assistance. To overcome the scarcity of data in this field, we employ a corpus collection strategy based on the domain knowledge framework of analog circuits. High-quality, accessible textbooks across relevant subfields are systematically curated and cleaned into a textual domain corpus. To address the complexity of knowledge of analog circuits, we introduce a granular domain knowledge distillation method. Raw, unlabeled domain corpus is decomposed into typical, granular learning nodes, where a multi-agent framework distills implicit knowledge embedded in unstructured text into question-answer data pairs with detailed reasoning processes, yielding a fine-grained, learnable dataset for fine-tuning. To address the unexplored challenges in training analog circuit foundation models, we explore and share our training methods through both theoretical analysis and experimental validation. We finally establish a fine-tuning-centric training paradigm, customizing and implementing a neighborhood self-constrained supervised fine-tuning algorithm. This approach enhances training outcomes by constraining the perturbation magnitude between the model's output distributions before and after training. In practice, we train the Qwen2.5-32B-Instruct model to obtain AnalogSeeker, which achieves 85.04% accuracy on AMSBench-TQA, the analog circuit knowledge evaluation benchmark, with a 15.67% point improvement over the original model and is competitive with mainstream commercial models. Furthermore, AnalogSeeker also shows effectiveness in the downstream operational amplifier design task. AnalogSeeker is open-sourced at https://huggingface.co/analogllm/analogseeker for research use.
- Abstract(参考訳): 本稿では,アナログ回路設計のためのオープンソース基盤言語モデルであるAnalogSeekerを提案する。
この分野でのデータ不足を克服するために、アナログ回路のドメイン知識フレームワークに基づいたコーパス収集戦略を用いる。
関連分野にわたる高品質でアクセシブルな教科書は、体系的にキュレーションされ、テキストドメインコーパスにクリーン化される。
アナログ回路の知識の複雑さに対処するため,粒状ドメイン知識蒸留法を提案する。
そこでは、マルチエージェントフレームワークが、構造化されていないテキストに埋め込まれた暗黙の知識を、詳細な推論プロセスを備えた質問応答データペアに蒸留し、きめ細かいきめ細かな学習可能なデータセットを生成する。
アナログ回路基礎モデルの学習における未解明の課題に対処するため,理論的解析と実験的検証の両面からトレーニング手法を探求し,共有する。
我々は、近隣の自己拘束型教師付き微調整アルゴリズムをカスタマイズし、実装し、最終的には微調整中心の訓練パラダイムを確立した。
このアプローチは、トレーニング前後のモデルの出力分布間の摂動大小を制約することにより、トレーニング結果を強化する。
実際には、アナログ回路知識評価ベンチマークであるAMSBench-TQAで85.04%の精度を実現し、元のモデルよりも15.67%向上し、主要な商用モデルと競合するAnalogSeekerを得るためにQwen2.5-32B-Instructモデルを訓練している。
さらに、AnalogSeekerは、下流のオペレーショナルアンプ設計タスクでも有効であることを示す。
AnalogSeekerは、研究用のhttps://huggingface.co/analogllm/analogseekerでオープンソース化されている。
関連論文リスト
- Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [55.914891182214475]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Solving morphological analogies: from retrieval to generation [4.834203844100681]
分析推論は人間の推論の能力であり、難解な推論タスクの解決に用いられてきた。
本稿では,ARにおける2つの重要な課題である類似検出と解決に対処し,対処するためのディープラーニング(DL)フレームワークを提案する。
このフレームワークは、単語間の形態的類似比(APs)のSiganalogiesデータセットで徹底的にテストされ、多くの言語においてシンボル的アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T12:36:46Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。