論文の概要: Pushing the Limits of Inverse Lithography with Generative Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.19027v1
- Date: Sun, 22 Feb 2026 03:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.452037
- Title: Pushing the Limits of Inverse Lithography with Generative Reinforcement Learning
- Title(参考訳): 生成的強化学習による逆リソグラフィの限界を押し上げる
- Authors: Haoyu Yang, Haoxing Ren,
- Abstract要約: 逆バッチリソグラフィー (ILT) は現代の製造に必須であるが、非常に親しみやすい目的に悩まされている。
本稿では,ILTの温暖化への新たなアプローチを提案する。
ほとんどのアプローチは決定論的サブイメージトランスレータである。
- 参考スコア(独自算出の注目度): 13.192418413763795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverse lithography (ILT) is critical for modern semiconductor manufacturing but suffers from highly non-convex objectives that often trap optimization in poor local minima. Generative AI has been explored to warm-start ILT, yet most approaches train deterministic image-to-image translators to mimic sub-optimal datasets, providing limited guidance for escaping non-convex traps during refinement. We reformulate mask synthesis as conditional sampling: a generator learns a distribution over masks conditioned on the design and proposes multiple candidates. The generator is first pretrained with WGAN plus a reconstruction loss, then fine-tuned using Group Relative Policy Optimization (GRPO) with an ILT-guided imitation loss. At inference, we sample a small batch of masks, run fast batched ILT refinement, evaluate lithography metrics (e.g., EPE, process window), and select the best candidate. On \texttt{LithoBench} dataset, the proposed hybrid framework reduces EPE violations under a 3\,nm tolerance and roughly doubles throughput versus a strong numerical ILT baseline, while improving final mask quality. We also present over 20\% EPE improvement on \texttt{ICCAD13} contest cases with 3$\times$ speedup over the SOTA numerical ILT solver. By learning to propose ILT-friendly initializations, our approach mitigates non-convexity and advances beyond what traditional solvers or GenAI can achieve.
- Abstract(参考訳): 逆リソグラフィー (ILT) は現代の半導体製造において重要であるが、非凸な目的に悩まされており、ローカルなミニマでしばしば最適化を阻害する。
生成AIはILTを温めるために探索されてきたが、ほとんどのアプローチでは、決定論的画像から画像へのトランスレータを訓練して、最適化中の非凸トラップをエスケープするための限定的なガイダンスを提供する。
我々は,マスク合成を条件付きサンプリングとして再構成し,設計上条件付きマスクの分布を学習し,複数の候補を提案する。
発電機はまずWGANと復元損失で事前訓練され、その後ILT誘導の模倣損失を持つグループ相対政策最適化(GRPO)を用いて微調整される。
推測では,少数のマスクをサンプリングし,高速バッチILTリファインメントを実行し,リソグラフィ測定値(EPE,プロセスウィンドウなど)を評価し,最適な候補を選択する。
提案するハイブリッドフレームワークは,texttt{LithoBench}データセットにおいて,3 nm 耐性下での EPE 違反を低減し,高い数値 ILT ベースラインに対してほぼ倍のスループットを実現し,最終的なマスク品質を向上する。
また, SOTA 数値 ILT ソルバよりも 3$\times$ 高速化した \texttt{ICCAD13} コンテストでは 20 % の EPE 改善が見られた。
ILTに親しみやすい初期化を提案することを学ぶことで、従来の問題解決者やGenAIが達成できることを超えて、非凸性や進歩を緩和する。
関連論文リスト
- Parallel Diffusion Solver via Residual Dirichlet Policy Optimization [88.7827307535107]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低次元の予算で画像品質が著しく低下することが多い。
本研究では,各ステップに複数の勾配並列評価を組み込んだ新しいODE解法であるEnsemble Parallel Directionsolvr(EPD-EPr)を提案する。
論文 参考訳(メタデータ) (2025-12-28T05:48:55Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - MPQ-DMv2: Flexible Residual Mixed Precision Quantization for Low-Bit Diffusion Models with Temporal Distillation [74.34220141721231]
我々は,textbfMixed textbfPrecision textbfQuantizationフレームワークを改良したMPQ-DMv2を提案する。
論文 参考訳(メタデータ) (2025-07-06T08:16:50Z) - Metropolis-Hastings Sampling for 3D Gaussian Reconstruction [31.840492077537018]
3次元ガウス平滑化のための適応型サンプリングフレームワーク(3DGS)を提案する。
我々の枠組みは, 確率的サンプリングプロセスとして, デンシフィケーションとプルーニングを改質することで限界を克服する。
提案手法は,最先端モデルのビュー合成品質を適度に上回りながら,より高速な収束を実現する。
論文 参考訳(メタデータ) (2025-06-15T19:12:37Z) - ESLM: Risk-Averse Selective Language Modeling for Efficient Pretraining [53.893792844055106]
大規模言語モデルの事前学習は計算集約的であるが、多くのトークンが学習にわずかに寄与し、非効率になる。
Selective Efficient Language Modelingは、オンライントークンレベルのバッチ選択を行うことで、トレーニング効率と分散ロバスト性を改善するリスク認識アルゴリズムである。
GPT-2プレトレーニング実験の結果、ESLMはベースラインに比べて複雑度と下流性能の両面を維持・改善しながら、トレーニングFLOPを著しく低減することが示された。
論文 参考訳(メタデータ) (2025-05-26T12:23:26Z) - Mesh-RFT: Enhancing Mesh Generation via Fine-grained Reinforcement Fine-Tuning [36.55327010076896]
Mesh-RFTは、3Dメッシュ生成のための新しい微細化強化微調整フレームワークである。
Masked Direct Optimization Preference (M-DPO)を使用して、品質を意識した顔マスクによる局所的な改善を実現している。
実験の結果,我々のM-DPOアプローチはハウスドルフ距離(HD)を24.6%削減し,トポロジースコア(TS)を3.8%改善した。
論文 参考訳(メタデータ) (2025-05-22T15:04:18Z) - High-Frequency Prior-Driven Adaptive Masking for Accelerating Image Super-Resolution [87.56382172827526]
高周波領域は再建に最も重要である。
本稿では,アクセラレーションのためのトレーニング不要適応マスキングモジュールを提案する。
本手法は,最先端モデルのFLOPを24~43%削減する。
論文 参考訳(メタデータ) (2025-05-11T13:18:03Z) - Second-order Optimization of Gaussian Splats with Importance Sampling [51.95046424364725]
3D Gaussian Splatting (3DGS) は、高品質で高速な推論時間のため、新しいビューレンダリングに広く用いられている。
本稿では,Levenberg-Marquardt (LM) と Conjugate Gradient (CG) に基づく新しい2階最適化手法を提案する。
提案手法は標準LMよりも3倍の高速化を実現し,ガウス数が少ない場合のAdamを6倍の6倍の速さで上回る。
論文 参考訳(メタデータ) (2025-04-17T12:52:08Z) - LATINO-PRO: LAtent consisTency INverse sOlver with PRompt Optimization [9.256189625437358]
テキスト・ツー・イメージ潜時拡散モデル (LDM) は、画像の逆問題解決の可能性を持つ強力な生成モデルとして最近登場した。
既存のテキストから画像への生成アプローチは非常に高価です。
逆解法内に生成モデルを埋め込むための新しい生成推論パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-16T19:11:44Z) - ILILT: Implicit Learning of Inverse Lithography Technologies [5.373749225521622]
ILILTは,暗黙の学習入力を地上条件のILTソリューションに活用し,効率と品質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-06T15:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。