論文の概要: Kolmogorov-Arnold Network for Transistor Compact Modeling
- arxiv url: http://arxiv.org/abs/2503.15209v1
- Date: Wed, 19 Mar 2025 13:49:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:22:41.235506
- Title: Kolmogorov-Arnold Network for Transistor Compact Modeling
- Title(参考訳): トランジスタコンパクトモデリングのためのKolmogorov-Arnoldネットワーク
- Authors: Rodion Novkin, Hussam Amrouch,
- Abstract要約: NNベースのトランジスタ・コンパクト・モデリングはデバイス・モデリングとSPICE回路シミュレーションの高速化のための変換ソリューションとして登場した。
この研究は、物理学に基づく関数モデリングにおいて高い精度で解釈可能性とシームレスに統合する、画期的なNNアーキテクチャを初めて導入する。
以上の結果から,カナとフカンはゲート電流ドレイン電荷,ソース電荷などの臨界値に対して,常に優れた予測精度を達成できることが判明した。
- 参考スコア(独自算出の注目度): 7.87021540115765
- License:
- Abstract: Neural network (NN)-based transistor compact modeling has recently emerged as a transformative solution for accelerating device modeling and SPICE circuit simulations. However, conventional NN architectures, despite their widespread adoption in state-of-the-art methods, primarily function as black-box problem solvers. This lack of interpretability significantly limits their capacity to extract and convey meaningful insights into learned data patterns, posing a major barrier to their broader adoption in critical modeling tasks. This work introduces, for the first time, Kolmogorov-Arnold network (KAN) for the transistor - a groundbreaking NN architecture that seamlessly integrates interpretability with high precision in physics-based function modeling. We systematically evaluate the performance of KAN and Fourier KAN for FinFET compact modeling, benchmarking them against the golden industry-standard compact model and the widely used MLP architecture. Our results reveal that KAN and FKAN consistently achieve superior prediction accuracy for critical figures of merit, including gate current, drain charge, and source charge. Furthermore, we demonstrate and improve the unique ability of KAN to derive symbolic formulas from learned data patterns - a capability that not only enhances interpretability but also facilitates in-depth transistor analysis and optimization. This work highlights the transformative potential of KAN in bridging the gap between interpretability and precision in NN-driven transistor compact modeling. By providing a robust and transparent approach to transistor modeling, KAN represents a pivotal advancement for the semiconductor industry as it navigates the challenges of advanced technology scaling.
- Abstract(参考訳): 近年, デバイス・モデリングとSPICE回路シミュレーションの高速化のための変換ソリューションとして, ニューラルネットワーク(NN)ベースのトランジスタ・モデリングが登場している。
しかし、従来のNNアーキテクチャは最先端の手法に広く採用されているにもかかわらず、主にブラックボックス問題解決器として機能している。
この解釈可能性の欠如は、学習したデータパターンに対する有意義な洞察を抽出し伝達する能力を大幅に制限する。
この研究は、トランジスタのためのKolmogorov-Arnoldネットワーク(KAN)を初めて紹介する。
我々は,FinFETのコンパクトモデリングにおけるKanとFunierkanの性能を,黄金の業界標準コンパクトモデルと広く使用されているMLPアーキテクチャと比較し,体系的に評価した。
以上の結果から,KAとFKANはゲート電流,ドレイン電荷,ソース電荷などの臨界値に対して,常に優れた予測精度を達成できることが判明した。
さらに、学習データパターンからシンボル式を導出するkanのユニークな能力を実証し、改善する。これは解釈可能性を高めるだけでなく、深いトランジスタ解析と最適化を容易にする能力である。
この研究は、NN駆動のトランジスタ・コンパクト・モデリングにおいて、解釈可能性と精度のギャップを埋めることにおけるkanの変換ポテンシャルを強調した。
トランジスタモデリングに対する堅牢で透明なアプローチを提供することにより、kanは、高度な技術のスケーリングの課題をナビゲートする上で、半導体産業にとって重要な進歩である。
関連論文リスト
- Jet: A Modern Transformer-Based Normalizing Flow [62.2573739835562]
本稿では,結合型正規化フローモデルの設計を再考する。
よりシンプルなアーキテクチャで、最先端の定量的、質的なパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-12-19T18:09:42Z) - A Message Passing Neural Network Surrogate Model for Bond-Associated Peridynamic Material Correspondence Formulation [9.417858649092187]
本稿では,結合関連材料対応の定式化に特化して設計された,メッセージパッシングニューラルネットワーク(MPNN)に基づく新しいサロゲートモデルを提案する。
ノードの特徴にフォーカスする従来のグラフニューラルネットワークとは異なり、我々のモデルはエッジベースの特徴を強調し、定式化において必須の物質点相互作用をキャプチャする。
論文 参考訳(メタデータ) (2024-10-29T17:42:29Z) - Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - MuseGNN: Forming Scalable, Convergent GNN Layers that Minimize a Sampling-Based Energy [27.328628715885287]
グラフニューラルネットワーク(GNN)アーキテクチャは、クロスインスタンス関係でデータをモデル化することができる。
このアーキテクチャの重要なサブクラスは、フォワードパスが関心のグラフ正規化エネルギー関数を反復的に還元するように設計された層を含む。
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Astrocyte-Integrated Dynamic Function Exchange in Spiking Neural
Networks [0.0]
本稿では,スパイキングニューラルネットワーク(SNN)の堅牢性と計算効率を向上させるための革新的な手法を提案する。
提案手法はヒト脳に広く分布するグリア細胞であるアストロサイトをSNNに統合し、アストロサイトを増強したネットワークを形成する。
特に、アストロサイトを拡張したSNNは、ほぼゼロのレイテンシと理論上無限のスループットを示し、計算効率が極めて高いことを示唆している。
論文 参考訳(メタデータ) (2023-09-15T08:02:29Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。