論文の概要: HybMT: Hybrid Meta-Predictor based ML Algorithm for Fast Test Vector
Generation
- arxiv url: http://arxiv.org/abs/2207.11312v3
- Date: Mon, 7 Aug 2023 07:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 00:57:38.322797
- Title: HybMT: Hybrid Meta-Predictor based ML Algorithm for Fast Test Vector
Generation
- Title(参考訳): hybmt:高速テストベクトル生成のためのハイブリッドメタ予測型mlアルゴリズム
- Authors: Shruti Pandey, Jayadeva, Smruti R. Sarangi
- Abstract要約: HybMT は EPFL ベンチマーク回路の故障カバレッジを損なうことなく、CPU 時間で 56.6% の低下を示した。
HybMTはまた、最高のMLベースのアルゴリズムよりも126.4%高速化されている。
- 参考スコア(独自算出の注目度): 2.1028463367241033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML models are increasingly being used to increase the test coverage and
decrease the overall testing time. This field is still in its nascent stage and
up till now there were no algorithms that could match or outperform commercial
tools in terms of speed and accuracy for large circuits. We propose an ATPG
algorithm HybMT in this paper that finally breaks this barrier. Like sister
methods, we augment the classical PODEM algorithm that uses recursive
backtracking. We design a custom 2-level predictor that predicts the input net
of a logic gate whose value needs to be set to ensure that the output is a
given value (0 or 1). Our predictor chooses the output from among two
first-level predictors, where the most effective one is a bespoke neural
network and the other is an SVM regressor. As compared to a popular,
state-of-the-art commercial ATPG tool, HybMT shows an overall reduction of
56.6% in the CPU time without compromising on the fault coverage for the EPFL
benchmark circuits. HybMT also shows a speedup of 126.4% over the best ML-based
algorithm while obtaining an equal or better fault coverage for the EPFL
benchmark circuits.
- Abstract(参考訳): MLモデルは、テストカバレッジを増やし、全体のテスト時間を短縮するために、ますます使われています。
この分野はまだ初期段階であり、これまでは大型回路の速度と精度で商用ツールに匹敵するアルゴリズムは存在しなかった。
本稿では、この障壁を突破するATPGアルゴリズムHybMTを提案する。
シスターメソッドと同様に、再帰的バックトラッキングを使用する古典的な podem アルゴリズムを補強する。
出力が与えられた値(0または1)であることを保証するために、値を設定する必要がある論理ゲートの入力ネットを予測するカスタム2レベル予測器を設計する。
我々の予測器は、2つの第1レベルの予測器の中から出力を選択し、最も有効なものはベスポークニューラルネットワークであり、もう1つはSVM回帰器である。
一般的な最先端の商用ATPGツールと比較すると、HybMTはEPFLベンチマーク回路の故障カバレッジを損なうことなく、CPU時間全体の56.6%の低下を示した。
HybMTは、最高のMLベースのアルゴリズムよりも126.4%のスピードアップを示し、EPFLベンチマーク回路のフォールトカバレッジは等しく良い。
関連論文リスト
- One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection [0.6091702876917281]
本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
論文 参考訳(メタデータ) (2023-05-16T11:06:09Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - Memristive Stochastic Computing for Deep Learning Parameter Optimization [1.6344851071810071]
コンピューティング(sc)は、ビットストリームとデジタルロジックを用いた様々な演算処理の低コストかつ低消費電力化を可能にするコンピューティングパラダイムである。
40nmの補完金属酸化物半導体(CMOS)プロセスを使用することで、拡張可能なアーキテクチャは1.55mm$2$を占め、文字認識タスクのために訓練されている間、畳み込みニューラルネットワーク(CNN)のパラメータを最適化する際に約167$mu$Wを消費します。
論文 参考訳(メタデータ) (2021-03-11T07:10:32Z) - An Experimental Analysis of Attack Classification Using Machine Learning
in IoT Networks [3.9236397589917127]
近年,IoT(Internet of Things,モノのインターネット)デバイスや,そのようなデバイスが生成するデータ量が大幅に増加している。
ネットワーク上の攻撃の数が増加するにつれて、従来の侵入検出システムがこれらの攻撃を効率的に処理することが難しくなります。
本稿では,k-nearest neighbor (KNN), Support vector machine (SVM), decision tree (DT), naive Bayes (NB), random forest (RF), Artificial Neural Network (ANN), logistic regression (LR)などの機械学習(ML)手法について述べる。
論文 参考訳(メタデータ) (2021-01-10T11:48:37Z) - BRDS: An FPGA-based LSTM Accelerator with Row-Balanced Dual-Ratio
Sparsification [3.3711251611130337]
エネルギー消費を低減し、Long Short-Term Memory (LSTM) ニューラルネットワークアクセラレータの速度を改善するためのハードウェアフレンドリーなプランニングアルゴリズムを提示する。
その結果、提案された加速器は最大272%の有効GOPS/Wを提供することができ、パープレキシティエラーはPTBデータセットの1.4%まで低減される。
論文 参考訳(メタデータ) (2021-01-07T18:23:48Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。