論文の概要: CNN-Cap: Effective Convolutional Neural Network Based Capacitance Models
for Full-Chip Parasitic Extraction
- arxiv url: http://arxiv.org/abs/2107.06511v1
- Date: Wed, 14 Jul 2021 07:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:08:39.745954
- Title: CNN-Cap: Effective Convolutional Neural Network Based Capacitance Models
for Full-Chip Parasitic Extraction
- Title(参考訳): CNN-Cap:フルチップパラサイト抽出のための効果的な畳み込みニューラルネットワークベース容量モデル
- Authors: Dingcheng Yang, Wenjian Yu, Yuanbo Guo, Wenjie Liang
- Abstract要約: 本稿では,畳み込みニューラルネットワークに基づくキャパシタンスモデルの構築に有効な手法を提案する。
CNN-Capは、GPUサーバ上の2次元フィールドソルバよりも4000倍高速で動作する。
- 参考スコア(独自算出の注目度): 4.08653138103384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate capacitance extraction is becoming more important for designing
integrated circuits under advanced process technology. The pattern matching
based full-chip extraction methodology delivers fast computational speed, but
suffers from large error, and tedious efforts on building capacitance models of
the increasing structure patterns. In this work, we propose an effective method
for building convolutional neural network (CNN) based capacitance models
(called CNN-Cap) for two-dimensional (2-D) structures in full-chip capacitance
extraction. With a novel grid-based data representation, the proposed method is
able to model the pattern with a variable number of conductors, so that largely
reduce the number of patterns. Based on the ability of ResNet architecture on
capturing spatial information and the proposed training skills, the obtained
CNN-Cap exhibits much better performance over the multilayer perception neural
network based capacitance model while being more versatile. Extensive
experiments on a 55nm and a 15nm process technologies have demonstrated that
the error of total capacitance produced with CNN-Cap is always within 1.3% and
the error of produced coupling capacitance is less than 10% in over 99.5%
probability. CNN-Cap runs more than 4000X faster than 2-D field solver on a GPU
server, while it consumes negligible memory compared to the look-up table based
capacitance model.
- Abstract(参考訳): 高度なプロセス技術の下で集積回路の設計において、正確な容量抽出がますます重要になっている。
このパターンマッチングベースのフルチップ抽出手法は高速な計算速度をもたらすが、大きなエラーが発生し、増大する構造パターンの容量モデルを構築するのに手間がかかる。
本研究では,フルチップ容量抽出における2次元(2次元)構造のための畳み込みニューラルネットワーク(CNN)ベースの容量モデル(CNN-Cap)を構築するための有効な手法を提案する。
グリッドに基づく新しいデータ表現により,提案手法は,パターンを可変数の導体でモデル化することができるため,パターンの数を大幅に削減できる。
得られたcnn-capは,空間情報取得におけるresnetアーキテクチャの能力と,提案するトレーニングスキルに基づいて,多層知覚ニューラルネットワークに基づく容量モデルよりも,より汎用性が高い性能を示す。
55nmおよび15nmプロセス技術に関する大規模な実験により、CNN-Capで生成された全容量の誤差は1.3%以内であり、生成した結合容量の誤差は99.5%以上の確率で10%未満であることが示された。
CNN-CapはGPUサーバ上で2次元フィールドソルバよりも4000倍高速に動作し、ルックアップテーブルベースの容量モデルと比較して無視可能なメモリを消費する。
関連論文リスト
- Fast-NTK: Parameter-Efficient Unlearning for Large-Scale Models [17.34908967455907]
マシン・アンラーニング'は、スクラッチから再トレーニングすることなく、不要なデータの選択的削除を提案する。
Fast-NTKはNTKベースの新しいアンラーニングアルゴリズムであり、計算複雑性を大幅に削減する。
論文 参考訳(メタデータ) (2023-12-22T18:55:45Z) - Efficient Scopeformer: Towards Scalable and Rich Feature Extraction for
Intracranial Hemorrhage Detection [0.7734726150561088]
ScopeformerはCT画像における頭蓋内出血分類のための新しいマルチCNN-ViTモデルである。
本稿では,CNN生成特徴間の冗長性を低減し,ViTの入力サイズを制御するための効果的な特徴投影法を提案する。
様々なスコープフォーマーモデルによる実験により、モデルの性能は特徴抽出器で使用される畳み込みブロックの数に比例することが示された。
論文 参考訳(メタデータ) (2023-02-01T03:51:27Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - An Adversarial Active Sampling-based Data Augmentation Framework for
Manufacturable Chip Design [55.62660894625669]
リソグラフィーモデリングは、チップ設計マスクが製造可能であることを保証するため、チップ設計において重要な問題である。
機械学習の最近の進歩は、時間を要するリソグラフィーシミュレーションをディープニューラルネットワークに置き換えるための代替ソリューションを提供している。
本稿では,限られたデータのジレンマを解消し,機械学習モデルの性能を向上させるために,データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T20:53:39Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Mitigating severe over-parameterization in deep convolutional neural
networks through forced feature abstraction and compression with an
entropy-based heuristic [7.503338065129185]
本稿では,エントロピーに基づく畳み込み層推定(EBCLE)を提案する。
EBCLEを用いて訓練したより広いが浅いモデルの相対的有効性を強調する実証的証拠を提示する。
論文 参考訳(メタデータ) (2021-06-27T10:34:39Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - IC Networks: Remodeling the Basic Unit for Convolutional Neural Networks [8.218732270970381]
既存のCNNにIC構造を組み込んで性能を向上することができる。
ICネットワークのトレーニングを高速化するために,新しいトレーニング手法,すなわち弱いロジット蒸留(WLD)を提案する。
ImageNetの実験では、IC構造をResNet-50に統合し、トップ1エラーを22.38%から21.75%に削減した。
論文 参考訳(メタデータ) (2021-02-06T03:15:43Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。