論文の概要: LLMs for Analog Circuit Design Continuum (ACDC)
- arxiv url: http://arxiv.org/abs/2512.09199v1
- Date: Tue, 09 Dec 2025 23:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.347868
- Title: LLMs for Analog Circuit Design Continuum (ACDC)
- Title(参考訳): アナログ回路設計継続(ACDC)用LCM
- Authors: Yasaman Esfandiari, Jocelyn Rego, Austin Meyer, Jonathan Gallagher, Mia Levy,
- Abstract要約: 大きな言語モデル(LLM)とトランスフォーマーアーキテクチャは印象的な推論と生成能力を示している。
この研究は、人間がループに留まるAI支援設計に焦点を当てている。
この結果から,データフォーマットに対する感度,生成した設計の不安定性,未確認回路構成への一般化の制限など,重要な信頼性上の課題が浮き彫りになった。
- 参考スコア(独自算出の注目度): 10.15990970510281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) and transformer architectures have shown impressive reasoning and generation capabilities across diverse natural language tasks. However, their reliability and robustness in real-world engineering domains remain largely unexplored, limiting their practical utility in human-centric workflows. In this work, we investigate the applicability and consistency of LLMs for analog circuit design -- a task requiring domain-specific reasoning, adherence to physical constraints, and structured representations -- focusing on AI-assisted design where humans remain in the loop. We study how different data representations influence model behavior and compare smaller models (e.g., T5, GPT-2) with larger foundation models (e.g., Mistral-7B, GPT-oss-20B) under varying training conditions. Our results highlight key reliability challenges, including sensitivity to data format, instability in generated designs, and limited generalization to unseen circuit configurations. These findings provide early evidence on the limits and potential of LLMs as tools to enhance human capabilities in complex engineering tasks, offering insights into designing reliable, deployable foundation models for structured, real-world applications.
- Abstract(参考訳): 大きな言語モデル(LLM)とトランスフォーマーアーキテクチャは、様々な自然言語タスクにまたがる印象的な推論と生成能力を示している。
しかし、現実世界のエンジニアリング領域における信頼性と堅牢性はほとんど探索されていないままであり、人間中心のワークフローにおける実用性を制限している。
本研究では, アナログ回路設計におけるLLMの適用性と整合性 - ドメイン固有の推論, 物理的制約の遵守, 構造化表現を必要とするタスク -- について, 人間がループに留まるAI支援設計に焦点を当てて検討する。
異なるデータ表現がモデル行動にどう影響するかを考察し、より小さなモデル(例えば、T5、GPT-2)とより大きな基礎モデル(例えば、Mistral-7B、GPT-oss-20B)を比較した。
この結果から,データフォーマットに対する感度,生成した設計の不安定性,未確認回路構成への一般化の制限など,重要な信頼性上の課題が浮き彫りになった。
これらの発見は、複雑なエンジニアリングタスクにおける人間の能力を高めるツールとしてのLLMの限界と可能性に関する初期の証拠を提供し、構造化された現実世界のアプリケーションのための信頼性のあるデプロイ可能な基盤モデルを設計するための洞察を提供する。
関連論文リスト
- Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Evaluating Large Language Models for Real-World Engineering Tasks [75.97299249823972]
本稿では,実運用指向のエンジニアリングシナリオから得られた100以上の質問をキュレートしたデータベースを提案する。
このデータセットを用いて、4つの最先端の大規模言語モデル(LLM)を評価する。
以上の結果から,LLMは時間的および構造的推論において強みを示すが,抽象的推論や形式的モデリング,文脈に敏感な工学的論理にはかなり苦労することがわかった。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - A Domain Adaptation of Large Language Models for Classifying Mechanical Assembly Components [0.9134277125744795]
機能モデリングにより、設計者は特定の構造の詳細が決定される前に製品機能について推論することができる。
関数ベースの設計の有効性は、よく構造化され包括的な機能データがないためにしばしば妨げられる。
本研究では,機械組立部品の機能の自動分類にファインチューニングを用いた新しいLLMベースのドメイン適応(DA)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-02T23:32:50Z) - A Text-Based Knowledge-Embedded Soft Sensing Modeling Approach for General Industrial Process Tasks Based on Large Language Model [16.842988666530204]
データ駆動型ソフトセンサー(DDSS)は、プロセス産業において重要なパフォーマンス指標を予測する主要な手法となっている。
開発には、モデリングプロセス中に様々なタスクに合わせてカスタマイズされた複雑でコストがかかる設計が必要である。
本稿では,LLM-TKESS(テキストベース知識埋め込み型ソフトセンシングのための大規模言語モデル)というフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-09T08:59:14Z) - Transformers Use Causal World Models in Maze-Solving Tasks [49.67445252528868]
我々は迷路解決タスクで訓練されたトランスフォーマーで世界モデルを特定する。
機能を抑圧するよりも、機能をアクティベートする方が簡単であることが分かりました。
位置符号化方式は、モデルの残留ストリーム内でのワールドモデルがどのように構成されているかに影響を与えるように見える。
論文 参考訳(メタデータ) (2024-12-16T15:21:04Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Foundation Models for Autonomous Robots in Unstructured Environments [15.517532442044962]
この研究は、ロボットと非構造環境の2つの分野における基礎モデルの応用を体系的にレビューした。
LLMの言語能力は、人間とロボットの相互作用の知覚を改善するために、他の特徴よりも利用されてきた。
LLMの使用は、プロジェクトの管理と建設における安全性、災害管理における自然災害検出により多くの応用を実証した。
論文 参考訳(メタデータ) (2024-07-19T13:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。