論文の概要: Modeling and Predicting Transistor Aging under Workload Dependency using
Machine Learning
- arxiv url: http://arxiv.org/abs/2207.04134v1
- Date: Fri, 8 Jul 2022 21:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 15:23:21.636540
- Title: Modeling and Predicting Transistor Aging under Workload Dependency using
Machine Learning
- Title(参考訳): 機械学習を用いたワークロード依存下でのトランジスタ老化のモデル化と予測
- Authors: Paul R. Genssler, Hamza E. Barkam, Karthik Pandaram, Mohsen Imani,
Hussam Amrouch
- Abstract要約: 物理モデルに再現する機械学習モデルを提案する。
本研究では,ある回路からのデータをトレーニングし,ベンチマーク回路に適用することでモデルを一般化する能力を実証する。
この研究は、ファウントリーと回路設計者の間の広い湾を埋める方向への有望なステップである。
- 参考スコア(独自算出の注目度): 10.82757480889144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pivotal issue of reliability is one of colossal concern for circuit
designers. The driving force is transistor aging, dependent on operating
voltage and workload. At the design time, it is difficult to estimate
close-to-the-edge guardbands that keep aging effects during the lifetime at
bay. This is because the foundry does not share its calibrated physics-based
models, comprised of highly confidential technology and material parameters.
However, the unmonitored yet necessary overestimation of degradation amounts to
a performance decline, which could be preventable. Furthermore, these
physics-based models are exceptionally computationally complex. The costs of
modeling millions of individual transistors at design time can be evidently
exorbitant. We propose the revolutionizing prospect of a machine learning model
trained to replicate the physics-based model, such that no confidential
parameters are disclosed. This effectual workaround is fully accessible to
circuit designers for the purposes of design optimization. We demonstrate the
models' ability to generalize by training on data from one circuit and applying
it successfully to a benchmark circuit. The mean relative error is as low as
1.7%, with a speedup of up to 20X. Circuit designers, for the first time ever,
will have ease of access to a high-precision aging model, which is paramount
for efficient designs. This work is a promising step in the direction of
bridging the wide gulf between the foundry and circuit designers.
- Abstract(参考訳): 信頼性の重要な問題は回路設計者にとって大きな関心事の一つである。
駆動力はトランジスタの老化であり、動作電圧と負荷に依存する。
設計時点では、生涯を通じて老化効果を維持する近距離ガードバンドを推定することは困難である。
これは、鋳造所が高機密技術と物質パラメータからなる校正された物理モデルを共有していないためである。
しかし、まだ監視されていない劣化の過大評価は性能低下につながり、それが防止される可能性がある。
さらに、これらの物理モデルは非常に複雑である。
数百万のトランジスタを設計時にモデル化するコストは明らかに外因性である。
本稿では、秘密パラメータが開示されないような物理モデルに再現するために訓練された機械学習モデルの革新的展望を提案する。
この効果的な回避策は設計最適化のために回路設計者に完全にアクセス可能である。
本研究では,ある回路からのデータをトレーニングし,ベンチマーク回路に適用することでモデルを一般化する能力を実証する。
平均相対誤差は1.7%まで低く、最高速度は最大20倍である。
回路設計者は、これまで初めて、効率的な設計のための最重要課題である高精度の老化モデルにアクセスしやすくする。
この作業は、ファウントリーと回路設計者の間の広い湾を埋める方向への有望なステップである。
関連論文リスト
- Open-Source High-Speed Flight Surrogate Modeling Framework [0.0]
高速飛行車は音速よりもはるかに速く走行し、国防と宇宙探査に不可欠である。
様々な飛行条件下での行動の正確な予測は困難であり、しばしば高価である。
提案されたアプローチでは、より賢く、より効率的な機械学習モデルを作成する。
論文 参考訳(メタデータ) (2024-11-06T01:34:06Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - OmniJet-$α$: The first cross-task foundation model for particle physics [0.0]
ファンデーションモデルはマルチデータセットとマルチタスクの機械学習手法で、一度トレーニングされたら、様々なダウンストリームアプリケーションのために微調整できる。
我々は,この課題について,いくつかの点で大きな進展を報告している。
我々は、教師なし問題(ジェット世代)と教師なしタスク(ジェットタグ付け)の移行学習を、新しいOmniJet-$alpha$モデルで実証する。
論文 参考訳(メタデータ) (2024-03-08T19:00:01Z) - TransCODE: Co-design of Transformers and Accelerators for Efficient
Training and Inference [6.0093441900032465]
本稿では,アクセラレータの設計空間におけるトランスフォーマー推論とトレーニングをシミュレートするフレームワークを提案する。
我々はこのシミュレータとTransCODEと呼ばれる共同設計手法を併用して最適性能のモデルを得る。
得られた変圧器・加速器対は、最先端の対よりも0.3%高い精度を達成する。
論文 参考訳(メタデータ) (2023-03-27T02:45:18Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - GNN4REL: Graph Neural Networks for Predicting Circuit Reliability
Degradation [7.650966670809372]
我々はグラフニューラルネットワーク(GNN)を用いて、プロセスの変動とデバイス老化が回路内の任意の経路の遅延に与える影響を正確に推定する。
GNN4RELは、工業用14nm計測データに対して校正されたFinFET技術モデルに基づいて訓練されている。
我々は、平均絶対誤差を0.01ポイントまで下げて、全経路(特に数秒以内)の遅延劣化をうまく見積もった。
論文 参考訳(メタデータ) (2022-08-04T20:09:12Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。