論文の概要: Few-Shot Test-Time Optimization Without Retraining for Semiconductor Recipe Generation and Beyond
- arxiv url: http://arxiv.org/abs/2505.16060v1
- Date: Wed, 21 May 2025 22:24:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.935455
- Title: Few-Shot Test-Time Optimization Without Retraining for Semiconductor Recipe Generation and Beyond
- Title(参考訳): 半導体レシピ生成のためのリトレーニングなしテスト時間最適化
- Authors: Shangding Gu, Donghao Ying, Ming Jin, Yu Joe Lu, Jun Wang, Javad Lavaei, Costas Spanos,
- Abstract要約: 我々は、事前訓練されたAIモデルやデプロイされたハードウェアシステムへの入力を最適化するためのテスト時最適化フレームワークであるモデルフィードバック学習を紹介する。
モデルパラメータの調整に依存する既存の手法とは対照的に、MFLは軽量のリバースモデルを利用して最適な入力を反復的に探索する。
半導体プラズマエッチングタスクにおけるMFLの有効性を検証する。
- 参考スコア(独自算出の注目度): 18.560002264580447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Model Feedback Learning (MFL), a novel test-time optimization framework for optimizing inputs to pre-trained AI models or deployed hardware systems without requiring any retraining of the models or modifications to the hardware. In contrast to existing methods that rely on adjusting model parameters, MFL leverages a lightweight reverse model to iteratively search for optimal inputs, enabling efficient adaptation to new objectives under deployment constraints. This framework is particularly advantageous in real-world settings, such as semiconductor manufacturing recipe generation, where modifying deployed systems is often infeasible or cost-prohibitive. We validate MFL on semiconductor plasma etching tasks, where it achieves target recipe generation in just five iterations, significantly outperforming both Bayesian optimization and human experts. Beyond semiconductor applications, MFL also demonstrates strong performance in chemical processes (e.g., chemical vapor deposition) and electronic systems (e.g., wire bonding), highlighting its broad applicability. Additionally, MFL incorporates stability-aware optimization, enhancing robustness to process variations and surpassing conventional supervised learning and random search methods in high-dimensional control settings. By enabling few-shot adaptation, MFL provides a scalable and efficient paradigm for deploying intelligent control in real-world environments.
- Abstract(参考訳): MFL(Model Feedback Learning)は、事前訓練されたAIモデルやデプロイされたハードウェアシステムへの入力を、モデルの再トレーニングやハードウェアの変更を必要とせずに最適化する新しいテストタイム最適化フレームワークである。
モデルパラメータの調整に依存する既存の手法とは対照的に、MFLは軽量のリバースモデルを利用して最適な入力を反復的に探索し、配置制約の下で新しい目的に効率的に適応できるようにする。
このフレームワークは、特に半導体製造レシピ生成のような現実世界の環境において有利であり、デプロイされたシステムを変更することは、しばしば実現不可能またはコスト抑制である。
半導体プラズマエッチングタスクにおけるMFLの有効性を検証し, 目的のレシピ生成をわずか5イテレーションで達成し, ベイズ最適化と人的専門家の双方を著しく上回る結果を得た。
半導体応用以外にも、MFLは化学プロセス(例えば、化学気相沈着)や電子システム(例えば、ワイヤボンディング)において高い性能を示し、その適用性を強調している。
さらに、安定性を意識した最適化、プロセスの変動に対する堅牢性の向上、高次元制御設定における従来の教師付き学習法やランダム検索法を超越した。
少数のショット適応を可能にすることで、MFLは現実世界の環境においてインテリジェントな制御をデプロイするためのスケーラブルで効率的なパラダイムを提供する。
関連論文リスト
- Gen-DFL: Decision-Focused Generative Learning for Robust Decision Making [48.62706690668867]
意思決定型生成学習(Gen-DFL)は、生成モデルを利用して不確実性を適応的にモデル化し、意思決定品質を向上させる新しいフレームワークである。
本論文は,Gen-DFLが従来のDFLと比較して,最悪の性能バウンダリを改善できることを理論的に示す。
論文 参考訳(メタデータ) (2025-02-08T06:52:11Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Model Extrapolation Expedites Alignment [135.12769233630362]
本研究では,人選好によるアライメントトレーニングを迅速化するExPOという手法を提案する。
我々は、ExPOがトレーニングされたDPOモデルを20%のステップで強化し、完全に訓練されたモデルを上回ることを実証した。
ExPO は AlpacaEval 2.0 と MT-Bench ベンチマークにおいて,既存のオープンソース LLM を特に改善している。
論文 参考訳(メタデータ) (2024-04-25T17:39:50Z) - PerfRL: A Small Language Model Framework for Efficient Code Optimization [14.18092813639534]
本稿では,コード最適化の問題に対処する革新的なフレームワークPerfRLを紹介する。
我々のフレームワークは、小型言語モデル(SLM)と強化学習(RL)の機能を活用している。
提案手法は,より短いトレーニング時間とより小さな事前学習モデルを用いて,最先端モデルと比較して,類似あるいはより良い結果が得られる。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - MFRL-BI: Design of a Model-free Reinforcement Learning Process Control
Scheme by Using Bayesian Inference [5.375049126954924]
プロセス制御方式の設計は、製造システムのばらつきを低減するために品質保証に不可欠である。
本稿では,モデルフリー強化学習(MFRL)手法を提案する。
論文 参考訳(メタデータ) (2023-09-17T08:18:55Z) - AnycostFL: Efficient On-Demand Federated Learning over Heterogeneous
Edge Devices [20.52519915112099]
我々はAny CostFLというコスト調整可能なFLフレームワークを提案し、多様なエッジデバイスがローカル更新を効率的に実行できるようにする。
実験結果から,我々の学習フレームワークは,適切なグローバルテスト精度を実現するために,トレーニング遅延とエネルギー消費の最大1.9倍の削減が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-01-08T15:25:55Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Multi-level Training and Bayesian Optimization for Economical
Hyperparameter Optimization [12.92634461859467]
本稿では,ハイパーパラメータ最適化に必要なトレーニング時間の総量を削減するための効果的な手法を開発する。
光のトレーニングによって生じる近似的な性能測定をキャリブレーションするために, トランキャット付加法ガウス過程モデルを提案する。
このモデルに基づいて、逐次モデルに基づくアルゴリズムが開発され、構成空間のパフォーマンスプロファイルを生成し、最適なモデルを見つける。
論文 参考訳(メタデータ) (2020-07-20T09:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。