論文の概要: Fusing Global and Local: Transformer-CNN Synergy for Next-Gen Current Estimation
- arxiv url: http://arxiv.org/abs/2504.07996v1
- Date: Tue, 08 Apr 2025 19:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:17:48.726696
- Title: Fusing Global and Local: Transformer-CNN Synergy for Next-Gen Current Estimation
- Title(参考訳): 次世代電流推定のためのFusing Global and Local: Transformer-CNN Synergy
- Authors: Junlang Huang, Hao Chen, Li Luo, Yong Cai, Lexin Zhang, Tianhao Ma, Yitian Zhang, Zhong Guan,
- Abstract要約: 本稿ではトランスフォーマーとCNNを組み合わせたハイブリッドモデルを提案する。
従来のSPICEシミュレーションで使用される複雑なNewtonイテレーションプロセスを置き換えるもので、Transformerフレームワークの強力なシーケンスモデリング機能を活用する。
実験の結果,従来のSPICEシミュレーションと比較して0.0098の誤差しか得られなかった。
- 参考スコア(独自算出の注目度): 4.945568106952893
- License:
- Abstract: This paper presents a hybrid model combining Transformer and CNN for predicting the current waveform in signal lines. Unlike traditional approaches such as current source models, driver linear representations, waveform functional fitting, or equivalent load capacitance methods, our model does not rely on fixed simplified models of standard-cell drivers or RC loads. Instead, it replaces the complex Newton iteration process used in traditional SPICE simulations, leveraging the powerful sequence modeling capabilities of the Transformer framework to directly predict current responses without iterative solving steps. The hybrid architecture effectively integrates the global feature-capturing ability of Transformers with the local feature extraction advantages of CNNs, significantly improving the accuracy of current waveform predictions. Experimental results demonstrate that, compared to traditional SPICE simulations, the proposed algorithm achieves an error of only 0.0098. These results highlight the algorithm's superior capabilities in predicting signal line current waveforms, timing analysis, and power evaluation, making it suitable for a wide range of technology nodes, from 40nm to 3nm.
- Abstract(参考訳): 本稿ではトランスフォーマーとCNNを組み合わせたハイブリッドモデルを提案する。
現在のソースモデルやドライバの線形表現、波形機能フィッティング、等価なロードキャパシタンス法といった従来の手法とは異なり、我々のモデルは標準セルドライバやRC負荷の固定された単純化モデルに依存しない。
代わりに、従来のSPICEシミュレーションで使用される複雑なNewtonイテレーションプロセスを置き換えることで、Transformerフレームワークの強力なシーケンスモデリング機能を活用して、反復的な解決ステップなしで現在のレスポンスを直接予測する。
ハイブリッドアーキテクチャは、トランスフォーマーのグローバルな特徴キャプチャ能力とCNNの局所的特徴抽出の利点を効果的に統合し、現在の波形予測の精度を大幅に向上させる。
実験の結果,従来のSPICEシミュレーションと比較して0.0098の誤差しか得られなかった。
これらの結果は、信号線電流波形の予測、タイミング解析、電力評価におけるアルゴリズムの優れた能力を強調し、40nmから3nmまでの幅広い技術ノードに適している。
関連論文リスト
- Implicit factorized transformer approach to fast prediction of turbulent channel flows [6.70175842351963]
本稿では,従来の連鎖因数分解処理を並列因数分解処理に置き換える改良型暗黙因数分解変換器 (IFactFormer-m) モデルを提案する。
IFactFormer-mモデルは乱流流の長期予測に成功している。
論文 参考訳(メタデータ) (2024-12-25T09:05:14Z) - A Unified Approach for Learning the Dynamics of Power System Generators and Inverter-based Resources [12.723995633698514]
再生可能エネルギーの統合と電気化のためのインバータベースの資源(IBR)は、電力系統の動的解析に大きく挑戦する。
同期ジェネレータ(SG)とIRBの両方を考慮するため、この研究は個々の動的コンポーネントのモデルを学ぶためのアプローチを示す。
論文 参考訳(メタデータ) (2024-09-22T14:07:10Z) - Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Characteristic Learning for Provable One Step Generation [3.0457054308731215]
本稿では,GAN(Generative Adversarial Networks)におけるサンプリング効率とフローベースモデルの安定した性能を組み合わせた一段階生成モデルを提案する。
我々のモデルは、確率密度輸送を通常の微分方程式(ODE)で記述できる特性によって駆動される。
2-ワッサーシュタイン距離における特性発生器の非漸近収束速度を確立するために,速度マッチング,オイラー離散化,特性適合の誤差を解析した。
論文 参考訳(メタデータ) (2024-05-09T02:41:42Z) - Generative Adversarial Networks for Scintillation Signal Simulation in
EXO-200 [0.13246303154954686]
EXO-200実験の時間投影チャンバーからの光検出器信号のシミュレーションを行うための新しい手法を実証した。
従来のシミュレーション手法よりも桁違いに高速に高品質なシミュレーション波形を生成できることがわかった。
ネットワーク出力はEXO-200分析フレームワークに統合され、標準的なEXO-200再構成ルーチンがシミュレーション波形を処理し、実際の波形に匹敵するエネルギーを生成することを示す。
論文 参考訳(メタデータ) (2023-03-11T05:16:20Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - DCTRGAN: Improving the Precision of Generative Models with Reweighting [1.2622634782102324]
深部生成モデルにポストホック補正を導入し,その忠実度をさらに向上する。
この補正は、生成された例に適用できる再重み付け関数の形を取る。
重み付き GAN の例は, 統計的パワーに大きな損失を伴わずに, 生成したサンプルの精度を著しく向上することを示した。
論文 参考訳(メタデータ) (2020-09-03T18:00:27Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。