論文の概要: PatternPaint: Generating Layout Patterns Using Generative AI and Inpainting Techniques
- arxiv url: http://arxiv.org/abs/2409.01348v1
- Date: Mon, 2 Sep 2024 16:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:11:05.449906
- Title: PatternPaint: Generating Layout Patterns Using Generative AI and Inpainting Techniques
- Title(参考訳): PatternPaint: 生成AIと塗装技術を用いたレイアウトパターンの生成
- Authors: Guanglei Zhou, Bhargav Korrapati, Gaurav Rajavendra Reddy, Jiang Hu, Yiran Chen, Dipto G. Thakurta,
- Abstract要約: 本研究では,設計規則法則的金属配置パターンを作成するための生成機械学習モデルの可能性について検討する。
提案手法は, 複雑な設計規則設定において法的なパターンを生成でき, 高い多様性を達成できることを示す。
提案手法はIntel 18A Process Design Kit (PDK) で検証され,20の開始パターンしか持たない多種多様なDRC対応パターンライブラリを生成することができる。
- 参考スコア(独自算出の注目度): 5.126358554705107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generation of VLSI layout patterns is essential for a wide range of Design For Manufacturability (DFM) studies. In this study, we investigate the potential of generative machine learning models for creating design rule legal metal layout patterns. Our results demonstrate that the proposed model can generate legal patterns in complex design rule settings and achieves a high diversity score. The designed system, with its flexible settings, supports both pattern generation with localized changes, and design rule violation correction. Our methodology is validated on Intel 18A Process Design Kit (PDK) and can produce a wide range of DRC-compliant pattern libraries with only 20 starter patterns.
- Abstract(参考訳): VLSIレイアウトパターンの生成は、幅広いDFM(Design For Manufacturability)研究に不可欠である。
本研究では,設計規則法則的金属配置パターンを作成するための生成機械学習モデルの可能性について検討する。
提案手法は, 複雑な設計規則設定において法的なパターンを生成でき, 高い多様性を達成できることを示す。
フレキシブルな設定を備えた設計システムは、局所的な変更を伴うパターン生成と、設計規則違反訂正の両方をサポートする。
提案手法はIntel 18A Process Design Kit (PDK) で検証され,20の開始パターンしか持たない多種多様なDRC対応パターンライブラリを生成することができる。
関連論文リスト
- CAR: Controllable Autoregressive Modeling for Visual Generation [100.33455832783416]
Controllable AutoRegressive Modeling (CAR)は、条件制御をマルチスケールの潜在変数モデリングに統合する新しいプラグイン・アンド・プレイフレームワークである。
CARは、制御表現を徐々に洗練し、キャプチャし、前訓練されたモデルの各自己回帰ステップに注入して生成プロセスを導く。
提案手法は,様々な条件にまたがって優れた制御性を示し,従来の手法に比べて画質の向上を実現している。
論文 参考訳(メタデータ) (2024-10-07T00:55:42Z) - ChatPattern: Layout Pattern Customization via Natural Language [18.611898021267923]
ChatPatternはフレキシブルパターンカスタマイズのための新しいLarge-Language-Modelフレームワークである。
LLMエージェントは、自然言語の要求を解釈し、特定の要求を満たす設計ツールを操作することができる。
ジェネレータは条件付きレイアウト生成、パターン修正、メモリフレンドリーなパターン拡張を最適化する。
論文 参考訳(メタデータ) (2024-03-15T09:15:22Z) - Desigen: A Pipeline for Controllable Design Template Generation [69.51563467689795]
Desigenは、背景画像と背景上のレイアウト要素を生成する自動テンプレート生成パイプラインである。
背景生成過程において,サリエンシ分布を制限し,所望領域の注意重みを低減させる2つの手法を提案する。
実験により、提案したパイプラインは人間の設計に匹敵する高品質なテンプレートを生成することが示された。
論文 参考訳(メタデータ) (2024-03-14T04:32:28Z) - DivCon: Divide and Conquer for Progressive Text-to-Image Generation [0.0]
拡散駆動型テキスト・ツー・イメージ(T2I)生成は顕著な進歩を遂げた。
レイアウトは、大きな言語モデルとレイアウトベースの拡散モデルを橋渡しするためのインターメジウムとして使用される。
本稿では,T2I生成タスクを単純なサブタスクに分解する分割対コンカレント手法を提案する。
論文 参考訳(メタデータ) (2024-03-11T03:24:44Z) - Towards Aligned Layout Generation via Diffusion Model with Aesthetic Constraints [53.66698106829144]
広い範囲のレイアウト生成タスクを処理する統一モデルを提案する。
このモデルは連続拡散モデルに基づいている。
実験結果から,LACEは高品質なレイアウトを生成することがわかった。
論文 参考訳(メタデータ) (2024-02-07T11:12:41Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - DiffPattern: Layout Pattern Generation via Discrete Diffusion [16.148506119712735]
信頼性の高いレイアウトパターンを生成するツールDiffPatternを提案する。
いくつかのベンチマーク設定の実験では、ToolDiffPatternが既存のベースラインを大幅に上回っていることが示されています。
論文 参考訳(メタデータ) (2023-03-23T06:16:14Z) - LayoutDiffusion: Improving Graphic Layout Generation by Discrete
Diffusion Probabilistic Models [50.73105631853759]
レイアウト自動生成のための新しい生成モデルLayoutDiffusionを提案する。
このプロセスでは,前方ステップの成長に伴うレイアウトの混乱が増している。
これにより、プラグアンドプレイ方式で2つの条件付きレイアウト生成タスクを再トレーニングすることなく実現し、既存の方法よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-03-21T04:41:02Z) - LayoutDETR: Detection Transformer Is a Good Multimodal Layout Designer [80.61492265221817]
グラフィックレイアウトデザインは視覚コミュニケーションにおいて重要な役割を担っている。
しかし、手作りのレイアウトデザインは、スキルを要求し、時間がかかり、バッチプロダクションではスケールできない。
ジェネレーティブモデルは、設計自動化をスケーラブルにするために出現するが、デザイナの欲求に沿うデザインを作成することは、未だに容易ではない。
論文 参考訳(メタデータ) (2022-12-19T21:57:35Z) - Learning Layout and Style Reconfigurable GANs for Controllable Image
Synthesis [12.449076001538552]
本稿では,空間的レイアウトからフォトリアリスティックなイメージを合成できる生成モデルを学習するための,最近の課題であるレイアウト・トゥ・イメージ(レイアウト・トゥ・イメージ)に焦点を当てる。
画像レベルでのスタイル制御は、バニラGANと同じであり、オブジェクトマスクレベルでのスタイル制御は、新しい特徴正規化方式によって実現される。
実験では,COCO-StuffデータセットとVisual Genomeデータセットを用いて,最先端の性能の検証を行った。
論文 参考訳(メタデータ) (2020-03-25T18:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。