論文の概要: HybMT: Hybrid Meta-Predictor based ML Algorithm for Fast Test Vector
Generation
- arxiv url: http://arxiv.org/abs/2207.11312v3
- Date: Mon, 7 Aug 2023 07:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 00:57:38.322797
- Title: HybMT: Hybrid Meta-Predictor based ML Algorithm for Fast Test Vector
Generation
- Title(参考訳): hybmt:高速テストベクトル生成のためのハイブリッドメタ予測型mlアルゴリズム
- Authors: Shruti Pandey, Jayadeva, Smruti R. Sarangi
- Abstract要約: HybMT は EPFL ベンチマーク回路の故障カバレッジを損なうことなく、CPU 時間で 56.6% の低下を示した。
HybMTはまた、最高のMLベースのアルゴリズムよりも126.4%高速化されている。
- 参考スコア(独自算出の注目度): 2.1028463367241033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML models are increasingly being used to increase the test coverage and
decrease the overall testing time. This field is still in its nascent stage and
up till now there were no algorithms that could match or outperform commercial
tools in terms of speed and accuracy for large circuits. We propose an ATPG
algorithm HybMT in this paper that finally breaks this barrier. Like sister
methods, we augment the classical PODEM algorithm that uses recursive
backtracking. We design a custom 2-level predictor that predicts the input net
of a logic gate whose value needs to be set to ensure that the output is a
given value (0 or 1). Our predictor chooses the output from among two
first-level predictors, where the most effective one is a bespoke neural
network and the other is an SVM regressor. As compared to a popular,
state-of-the-art commercial ATPG tool, HybMT shows an overall reduction of
56.6% in the CPU time without compromising on the fault coverage for the EPFL
benchmark circuits. HybMT also shows a speedup of 126.4% over the best ML-based
algorithm while obtaining an equal or better fault coverage for the EPFL
benchmark circuits.
- Abstract(参考訳): MLモデルは、テストカバレッジを増やし、全体のテスト時間を短縮するために、ますます使われています。
この分野はまだ初期段階であり、これまでは大型回路の速度と精度で商用ツールに匹敵するアルゴリズムは存在しなかった。
本稿では、この障壁を突破するATPGアルゴリズムHybMTを提案する。
シスターメソッドと同様に、再帰的バックトラッキングを使用する古典的な podem アルゴリズムを補強する。
出力が与えられた値(0または1)であることを保証するために、値を設定する必要がある論理ゲートの入力ネットを予測するカスタム2レベル予測器を設計する。
我々の予測器は、2つの第1レベルの予測器の中から出力を選択し、最も有効なものはベスポークニューラルネットワークであり、もう1つはSVM回帰器である。
一般的な最先端の商用ATPGツールと比較すると、HybMTはEPFLベンチマーク回路の故障カバレッジを損なうことなく、CPU時間全体の56.6%の低下を示した。
HybMTは、最高のMLベースのアルゴリズムよりも126.4%のスピードアップを示し、EPFLベンチマーク回路のフォールトカバレッジは等しく良い。
関連論文リスト
- rule4ml: An Open-Source Tool for Resource Utilization and Latency Estimation for ML Models on FPGA [0.0]
本稿では、FPGA上での合成と実装に先立って、ニューラルネットワーク(NN)のリソース利用と推論遅延を予測する新しい手法を提案する。
NNを高レベル合成(HLS)コードに変換するツールフローであるHLS4MLを活用している。
本手法では, 即時前合成予測に適応した回帰モデルを用いる。
論文 参考訳(メタデータ) (2024-08-09T19:35:10Z) - Finding Transformer Circuits with Edge Pruning [71.12127707678961]
自動回路発見の効率的かつスケーラブルなソリューションとしてエッジプルーニングを提案する。
本手法は,従来の手法に比べてエッジ数の半分未満のGPT-2の回路を探索する。
その効率のおかげで、Edge PruningをCodeLlama-13Bにスケールしました。
論文 参考訳(メタデータ) (2024-06-24T16:40:54Z) - The Power of Resets in Online Reinforcement Learning [73.64852266145387]
ローカルシミュレータアクセス(あるいはローカルプランニング)を用いたオンライン強化学習を通してシミュレータのパワーを探求する。
カバー性が低いMPPは,Qstar$-realizabilityのみのサンプル効率で学習可能であることを示す。
ローカルシミュレーターアクセス下では, 悪名高いExogenous Block MDP問題が抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-04-23T18:09:53Z) - One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection [0.6091702876917281]
本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
論文 参考訳(メタデータ) (2023-05-16T11:06:09Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - Memristive Stochastic Computing for Deep Learning Parameter Optimization [1.6344851071810071]
コンピューティング(sc)は、ビットストリームとデジタルロジックを用いた様々な演算処理の低コストかつ低消費電力化を可能にするコンピューティングパラダイムである。
40nmの補完金属酸化物半導体(CMOS)プロセスを使用することで、拡張可能なアーキテクチャは1.55mm$2$を占め、文字認識タスクのために訓練されている間、畳み込みニューラルネットワーク(CNN)のパラメータを最適化する際に約167$mu$Wを消費します。
論文 参考訳(メタデータ) (2021-03-11T07:10:32Z) - BRDS: An FPGA-based LSTM Accelerator with Row-Balanced Dual-Ratio
Sparsification [3.3711251611130337]
エネルギー消費を低減し、Long Short-Term Memory (LSTM) ニューラルネットワークアクセラレータの速度を改善するためのハードウェアフレンドリーなプランニングアルゴリズムを提示する。
その結果、提案された加速器は最大272%の有効GOPS/Wを提供することができ、パープレキシティエラーはPTBデータセットの1.4%まで低減される。
論文 参考訳(メタデータ) (2021-01-07T18:23:48Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。