論文の概要: LLM-Enhanced Bayesian Optimization for Efficient Analog Layout Constraint Generation
- arxiv url: http://arxiv.org/abs/2406.05250v2
- Date: Wed, 19 Jun 2024 20:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 01:36:36.257226
- Title: LLM-Enhanced Bayesian Optimization for Efficient Analog Layout Constraint Generation
- Title(参考訳): LLMによる効率的なアナログレイアウト制約生成のためのベイズ最適化
- Authors: Guojin Chen, Keren Zhu, Seunggeun Kim, Hanqing Zhu, Yao Lai, Bei Yu, David Z. Pan,
- Abstract要約: 本稿では,アナログレイアウト合成のためのtexttLLANA フレームワークを提案する。
アナログ設計に依存したパラメータ制約をより効率的に生成するために、LLM(Large Language Models)の少数ショット学習能力を利用する。
その結果、textttLLANAは、最先端(SOTA)BO法に匹敵する性能を達成するだけでなく、アナログ回路設計空間をより効果的に探索できることを示した。
- 参考スコア(独自算出の注目度): 13.860831058885314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog layout synthesis faces significant challenges due to its dependence on manual processes, considerable time requirements, and performance instability. Current Bayesian Optimization (BO)-based techniques for analog layout synthesis, despite their potential for automation, suffer from slow convergence and extensive data needs, limiting their practical application. This paper presents the \texttt{LLANA} framework, a novel approach that leverages Large Language Models (LLMs) to enhance BO by exploiting the few-shot learning abilities of LLMs for more efficient generation of analog design-dependent parameter constraints. Experimental results demonstrate that \texttt{LLANA} not only achieves performance comparable to state-of-the-art (SOTA) BO methods but also enables a more effective exploration of the analog circuit design space, thanks to LLM's superior contextual understanding and learning efficiency. The code is available at https://github.com/dekura/LLANA.
- Abstract(参考訳): アナログレイアウトの合成は、手作業のプロセスへの依存、かなりの時間要件、パフォーマンスの不安定さなど、重大な課題に直面している。
現在のベイズ最適化(BO)に基づくアナログレイアウト合成技術は、自動化の可能性を秘めているが、収束の遅さと広範なデータ要求に悩まされ、実用的利用が制限されている。
本稿では,LLMの数発の学習能力を活かして,Large Language Models (LLMs) を利用した新しいアプローチである \texttt{LLANA} フレームワークを提案する。
実験結果から, <texttt{LLANA} は最新技術 (SOTA) BO法に匹敵する性能を達成するだけでなく, LLM のより優れた文脈理解と学習効率により, アナログ回路設計空間のより効率的な探索を可能にした。
コードはhttps://github.com/dekura/LLANA.comで公開されている。
関連論文リスト
- Direct Preference Optimization Using Sparse Feature-Level Constraints [47.15096507230884]
特徴レベルの制約付き優先度最適化は、安定性を確保しつつアライメントプロセスを簡素化するために設計された新しい手法である。
提案手法は、訓練されたスパースオートエンコーダで活性化されるスパース機能と、逐次KL分散の品質を用いて効率を向上する。
論文 参考訳(メタデータ) (2024-11-12T07:54:13Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - OPTDTALS: Approximate Logic Synthesis via Optimal Decision Trees Approach [9.081146426124482]
近似論理合成(ALS)は、正確性を犠牲にして回路の複雑さを低減することを目的としている。
最適決定木を経験的精度で学習することで近似を実現する新しいALS手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:23:58Z) - Adaptive Draft-Verification for Efficient Large Language Model Decoding [24.347886232342862]
大規模言語モデル(LLM)デコードでは、与えられたコンテキストに基づいてトークンのシーケンスを生成する。
典型的な自己回帰復号法では、生成されたトークンごとに別の前方通過が必要となる。
微調整を必要とせずにLDMデコーディングを高速化するADEDを導入する。
論文 参考訳(メタデータ) (2024-06-27T22:20:39Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - LInK: Learning Joint Representations of Design and Performance Spaces through Contrastive Learning for Mechanism Synthesis [15.793704096341523]
本稿では,性能と設計空間のコントラスト学習と最適化手法を統合する新しいフレームワークであるLInKを紹介する。
マルチモーダルおよび変換不変のコントラスト学習フレームワークを活用することで、LInKは複雑な物理学とメカニズムの設計表現をキャプチャする共同表現を学習する。
以上の結果から,LInKは機構設計の分野を進展させるだけでなく,他の工学分野へのコントラスト学習や最適化の適用性も拡大することが示された。
論文 参考訳(メタデータ) (2024-05-31T03:04:57Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Boosting Inference Efficiency: Unleashing the Power of Parameter-Shared
Pre-trained Language Models [109.06052781040916]
本稿ではパラメータ共有言語モデルの推論効率を向上させる手法を提案する。
また、完全あるいは部分的に共有されたモデルにつながる単純な事前学習手法を提案する。
その結果,本手法が自己回帰的および自己符号化的PLMに与える影響が示された。
論文 参考訳(メタデータ) (2023-10-19T15:13:58Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - BOiLS: Bayesian Optimisation for Logic Synthesis [10.981155046738126]
本稿では,現代ベイズ最適化を適用した最初のアルゴリズムBOiLSを提案する。
サンプル効率とQoR値の両方の観点から,BOiLSの最先端性能を最先端技術と比較した。
論文 参考訳(メタデータ) (2021-11-11T12:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。