論文の概要: DeepTPI: Test Point Insertion with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2206.06975v1
- Date: Tue, 7 Jun 2022 14:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 00:15:08.494594
- Title: DeepTPI: Test Point Insertion with Deep Reinforcement Learning
- Title(参考訳): DeepTPI: 深層強化学習によるテストポイント導入
- Authors: Zhengyuan Shi, Min Li, Sadaf Khan, Liuzheng Wang, Naixing Wang, Yu
Huang, Qiang Xu
- Abstract要約: テストポイント挿入(TPI)は、テスト容易性向上のための広く使われている技術である。
深部強化学習(DRL)に基づく新しいTPI手法であるDeepTPIを提案する。
市販のDFTツールと比較して,DeepTPIはテストカバレッジを著しく改善することがわかった。
- 参考スコア(独自算出の注目度): 6.357061090668433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test point insertion (TPI) is a widely used technique for testability
enhancement, especially for logic built-in self-test (LBIST) due to its
relatively low fault coverage. In this paper, we propose a novel TPI approach
based on deep reinforcement learning (DRL), named DeepTPI. Unlike previous
learning-based solutions that formulate the TPI task as a supervised-learning
problem, we train a novel DRL agent, instantiated as the combination of a graph
neural network (GNN) and a Deep Q-Learning network (DQN), to maximize the test
coverage improvement. Specifically, we model circuits as directed graphs and
design a graph-based value network to estimate the action values for inserting
different test points. The policy of the DRL agent is defined as selecting the
action with the maximum value. Moreover, we apply the general node embeddings
from a pre-trained model to enhance node features, and propose a dedicated
testability-aware attention mechanism for the value network. Experimental
results on circuits with various scales show that DeepTPI significantly
improves test coverage compared to the commercial DFT tool. The code of this
work is available at https://github.com/cure-lab/DeepTPI.
- Abstract(参考訳): テストポイント挿入(TPI)は、テスト容易性向上のための広く使われている手法であり、特に比較的低いフォールトカバレッジのため、ロジック内蔵セルフテスト(LBIST)で使用される。
本稿では,深部強化学習(DRL)に基づく新しいTPIアプローチであるDeepTPIを提案する。
教師付き学習問題としてTPIタスクを定式化した従来の学習ベースソリューションとは違って,グラフニューラルネットワーク(GNN)とディープQラーニングネットワーク(DQN)を組み合わせた新しいDRLエージェントを訓練し,テストカバレッジの向上を最大化する。
具体的には、回路を有向グラフとしてモデル化し、グラフベースの値ネットワークを設計し、異なるテストポイントを挿入するアクション値を推定する。
DRLエージェントのポリシーは、最大値のアクションを選択するものとして定義される。
さらに,事前学習したモデルから一般的なノード埋め込みを適用し,ノードの特徴を高め,バリューネットワークのためのテスト容易性に着目した注意機構を提案する。
様々なスケールの回路の実験結果から,DeepTPIは商用のDFTツールと比較してテストカバレッジを著しく改善することがわかった。
この作業のコードはhttps://github.com/cure-lab/deeptpiで入手できる。
関連論文リスト
- BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - IBD-PSC: Input-level Backdoor Detection via Parameter-oriented Scaling Consistency [20.61046457594186]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では、悪意のあるテスト画像のフィルタリングを行うための、シンプルで効果的な入力レベルのバックドア検出(IBD-PSCと呼ばれる)を提案する。
論文 参考訳(メタデータ) (2024-05-16T03:19:52Z) - Test-Time Training on Graphs with Large Language Models (LLMs) [68.375487369596]
グラフニューラルネットワーク(GNN)をトレーニングするための有望なアプローチとして,TTT(Test-Time Training)が提案されている。
テキスト分散グラフ(TAG)上でのLLM(Large Language Models)の優れたアノテーション能力に着想を得て,LLMをアノテータとしてグラフ上でのテスト時間トレーニングを強化することを提案する。
2段階のトレーニング戦略は、限定的でノイズの多いラベルでテストタイムモデルを調整するように設計されている。
論文 参考訳(メタデータ) (2024-04-21T08:20:02Z) - Investigation and rectification of NIDS datasets and standratized
feature set derivation for network attack detection with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、フロー機能とともにネットワークトポロジを分析する機会を提供する。
本稿では,ToN-IoTデータセットの異なるバージョンを調査し,いくつかのバージョンで矛盾点を指摘する。
本稿では,NetFlowv5互換データからのみ派生した,新しい標準化およびコンパクトなフロー特徴セットを提案する。
論文 参考訳(メタデータ) (2022-12-26T07:42:25Z) - Simple Techniques Work Surprisingly Well for Neural Network Test
Prioritization and Active Learning (Replicability Study) [4.987581730476023]
ディープニューラルネットワーク(DNN)のTIP(Test Input Prioritizers)は、一般的に非常に大規模なテストデータセットを効率的に処理するための重要なテクニックである。
Fengらは、非常に高速でシンプルなTIPであるDeepGiniを提案し、ニューロンやサプライズカバレッジのようなより精巧な技術よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-05-02T05:47:34Z) - End-to-End Learning of Deep Kernel Acquisition Functions for Bayesian
Optimization [39.56814839510978]
ニューラルネットワークに基づくカーネルを用いたベイズ最適化のためのメタラーニング手法を提案する。
我々のモデルは、複数のタスクから強化学習フレームワークによって訓練されている。
3つのテキスト文書データセットを用いた実験において,提案手法が既存の手法よりも優れたBO性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-01T00:42:31Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Edge-Detect: Edge-centric Network Intrusion Detection using Deep Neural
Network [0.0]
エッジノードは、Internet-of-Thingsエンドポイント上の複数のサイバー攻撃を検出するために不可欠である。
DLM技術を用いてエッジノードに対するDoS攻撃を検知する,軽量で高速かつ高精度なEdge-Detectモデルを開発した。
論文 参考訳(メタデータ) (2021-02-03T04:24:34Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。