論文の概要: DeepRWCap: Neural-Guided Random-Walk Capacitance Solver for IC Design
- arxiv url: http://arxiv.org/abs/2511.06831v1
- Date: Mon, 10 Nov 2025 08:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.156088
- Title: DeepRWCap: Neural-Guided Random-Walk Capacitance Solver for IC Design
- Title(参考訳): DeepRWCap: IC設計のためのニューラルガイド型ランダムウォークコンデンサ
- Authors: Hector R. Rodriguez, Jiechen Huang, Wenjian Yu,
- Abstract要約: 本稿では、機械学習誘導型ランダムウォークソルバであるDeepRWCapを紹介し、ウォークの各ステップを導くのに必要な遷移量を予測する。
DeepRWCapは、2段階のニューラルアーキテクチャを使用して、構造化された出力を、立方体面上の対面分布と空間カーネルに分解する。
- 参考スコア(独自算出の注目度): 3.790585344640331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monte Carlo random walk methods are widely used in capacitance extraction for their mesh-free formulation and inherent parallelism. However, modern semiconductor technologies with densely packed structures present significant challenges in unbiasedly sampling transition domains in walk steps with multiple high-contrast dielectric materials. We present DeepRWCap, a machine learning-guided random walk solver that predicts the transition quantities required to guide each step of the walk. These include Poisson kernels, gradient kernels, signs and magnitudes of weights. DeepRWCap employs a two-stage neural architecture that decomposes structured outputs into face-wise distributions and spatial kernels on cube faces. It uses 3D convolutional networks to capture volumetric dielectric interactions and 2D depthwise separable convolutions to model localized kernel behavior. The design incorporates grid-based positional encodings and structural design choices informed by cube symmetries to reduce learning redundancy and improve generalization. Trained on 100,000 procedurally generated dielectric configurations, DeepRWCap achieves a mean relative error of $1.24\pm0.53$\% when benchmarked against the commercial Raphael solver on the self-capacitance estimation of 10 industrial designs spanning 12 to 55 nm nodes. Compared to the state-of-the-art stochastic difference method Microwalk, DeepRWCap achieves an average 23\% speedup. On complex designs with runtimes over 10 s, it reaches an average 49\% acceleration.
- Abstract(参考訳): モンテカルロランダムウォーク法は、メッシュフリーな定式化と固有の並列性のためにキャパシタンス抽出に広く用いられている。
しかし、高密度構造を持つ現代の半導体技術は、複数の高コントラスト誘電体材料を用いたウォーキングステップにおける遷移ドメインの非バイアスサンプリングにおいて重要な課題を呈している。
本稿では、機械学習誘導型ランダムウォークソルバであるDeepRWCapを紹介し、ウォークの各ステップを導くのに必要な遷移量を予測する。
これらにはポアソン核、勾配核、記号と重みの等級が含まれる。
DeepRWCapは、2段階のニューラルアーキテクチャを使用して、構造化された出力を、立方体面上の対面分布と空間カーネルに分解する。
3次元畳み込みネットワークを用いて体積誘電相互作用と2次元の深さ分離可能な畳み込みを捕捉し、局所化されたカーネルの挙動をモデル化する。
この設計は、グリッドベースの位置符号化と立方体対称性によって誘導される構造設計の選択を取り入れ、学習の冗長性を低減し、一般化を改善する。
10万の手続き的に生成された誘電体構成に基づいて訓練されたDeepRWCapは、12nmから55nmの10の産業設計の自己容量推定において、市販のラファエルソルバとベンチマークした際の平均相対誤差は1.24\pm0.53$\%である。
最先端の確率差法であるMicrowalkと比較して、DeepRWCapは平均23倍のスピードアップを達成する。
10秒以上のランタイムを持つ複雑な設計では、平均49\%のアクセラレーションに達する。
関連論文リスト
- Facet: highly efficient E(3)-equivariant networks for interatomic potentials [6.741915610607818]
計算材料発見は、第一原理計算の高コストによって制限される。
結晶構造からエネルギーを予測する機械学習のポテンシャルは有望だが、既存の手法では計算のボトルネックに直面している。
効率的なMLポテンシャルのためのGNNアーキテクチャであるFacetを提案する。
論文 参考訳(メタデータ) (2025-09-10T09:06:24Z) - DNN-Based Precoding in RIS-Aided mmWave MIMO Systems With Practical Phase Shift [43.56429251312585]
本稿では、直接通信路を妨害したミリ波マルチインプット多重出力(MIMO)システムのスループットを最大化する。
リコンフィギュアブルインテリジェントサーフェス(RIS)は、視線(LoS)とマルチパス効果に関連するmmWave特性を考慮して伝送性を高めるために使用される。
ディープニューラルネットワーク(DNN)は、より高速なコードワード選択を容易にするために開発された。
論文 参考訳(メタデータ) (2025-07-03T17:35:06Z) - KHRONOS: a Kernel-Based Neural Architecture for Rapid, Resource-Efficient Scientific Computation [0.9355993154058798]
我々はモデルベース、モデルフリー、モデル反転タスクのためのAIフレームワークであるKHRONOSを紹介する。
KHRONOSは、次元ごとのカーネル展開の階層的な構成で連続的に微分可能な対象場を構築する。
逆問題に対して、KHRONOSは、サンプルレイテンシあたりのサブマイクロ秒で、数回のフォワード評価で、高速で反復的なレベルセットのリカバリを容易にする。
論文 参考訳(メタデータ) (2025-05-19T16:29:07Z) - Transolver++: An Accurate Neural Solver for PDEs on Million-Scale Geometries [67.63077028746191]
Transolver++は、百万のスケールでPDEを解くことができる、非常に並列で効率的なニューラルソルバである。
Transolver++は、シングルGPU入力能力を初めて100万ポイントに拡張する。
数百万スケールの高忠実度産業シミュレーションで20%以上の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:33:50Z) - LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - FC2T2: The Fast Continuous Convolutional Taylor Transform with
Applications in Vision and Graphics [8.629912408966145]
現代の機械学習の観点から、Taylorシリーズの拡張を再考する。
連続空間における低次元畳み込み作用素の効率的な近似を可能にする高速多重極法(FMM)の変種である高速連続畳み込みテイラー変換(FC2T2)を導入する。
論文 参考訳(メタデータ) (2021-10-29T22:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。