論文の概要: WaferSegClassNet -- A Light-weight Network for Classification and
Segmentation of Semiconductor Wafer Defects
- arxiv url: http://arxiv.org/abs/2207.00960v1
- Date: Sun, 3 Jul 2022 05:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:58:57.653866
- Title: WaferSegClassNet -- A Light-weight Network for Classification and
Segmentation of Semiconductor Wafer Defects
- Title(参考訳): WaferSegClassNet - 半導体ウエハ欠陥の分類とセグメンテーションのための軽量ネットワーク
- Authors: Subhrajit Nag, Dhruv Makwana, Sai Chandra Teja R, Sparsh Mittal, C
Krishna Mohan
- Abstract要約: 本稿では,エンコーダ-デコーダアーキテクチャに基づく新しいネットワークである WaferSegClassNet (WSCN) について述べる。
WSCNは単一および混合型ウェハ欠陥の同時分類とセグメンテーションを行う。
MixedWM38データセットでセグメンテーション結果を示すのはこれが初めてです。
- 参考スコア(独自算出の注目度): 3.1806743741013648
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the integration density and design intricacy of semiconductor wafers
increase, the magnitude and complexity of defects in them are also on the rise.
Since the manual inspection of wafer defects is costly, an automated artificial
intelligence (AI) based computer-vision approach is highly desired. The
previous works on defect analysis have several limitations, such as low
accuracy and the need for separate models for classification and segmentation.
For analyzing mixed-type defects, some previous works require separately
training one model for each defect type, which is non-scalable. In this paper,
we present WaferSegClassNet (WSCN), a novel network based on encoder-decoder
architecture. WSCN performs simultaneous classification and segmentation of
both single and mixed-type wafer defects. WSCN uses a "shared encoder" for
classification, and segmentation, which allows training WSCN end-to-end. We use
N-pair contrastive loss to first pretrain the encoder and then use BCE-Dice
loss for segmentation, and categorical cross-entropy loss for classification.
Use of N-pair contrastive loss helps in better embedding representation in the
latent dimension of wafer maps. WSCN has a model size of only 0.51MB and
performs only 0.2M FLOPS. Thus, it is much lighter than other state-of-the-art
models. Also, it requires only 150 epochs for convergence, compared to 4,000
epochs needed by a previous work. We evaluate our model on the MixedWM38
dataset, which has 38,015 images. WSCN achieves an average classification
accuracy of 98.2% and a dice coefficient of 0.9999. We are the first to show
segmentation results on the MixedWM38 dataset. The source code can be obtained
from https://github.com/ckmvigil/WaferSegClassNet.
- Abstract(参考訳): 半導体ウエハの積分密度と設計精度が増大するにつれて、欠陥の大きさや複雑さも増大しつつある。
ウエハ欠陥の手動検査はコストがかかるため、自動化人工知能(AI)ベースのコンピュータビジョンアプローチが望まれている。
欠陥解析に関するこれまでの研究には、低い精度と分類と分割のための別々のモデルの必要性など、いくつかの制限がある。
混合型欠陥を分析するには、以前のいくつかの研究では、各欠陥タイプのモデルを個別にトレーニングする必要がある。
本稿では,エンコーダ-デコーダアーキテクチャに基づく新しいネットワークであるWaferSegClassNet(WSCN)を提案する。
WSCNは単一および混合型ウェハ欠陥の同時分類とセグメンテーションを行う。
WSCNは分類とセグメンテーションに"Shared Encoder"を使用し、WSCNのエンドツーエンドのトレーニングを可能にする。
まず, エンコーダの事前訓練を行い, セグメンテーションにBCE-Dice損失, 分類にカテゴリ的クロスエントロピー損失を用いる。
N対の対照的な損失の利用は、ウェハ写像の潜在次元におけるより良い埋め込み表現に役立つ。
WSCN のモデルサイズは 0.51MB しかなく、0.2M FLOPS しか動作しない。
したがって、他の最先端モデルよりもはるかに軽量である。
また、コンバージェンスには150エポックしか必要とせず、前回の作業で4,000エポックが必要であった。
我々は,38,015枚の画像を持つMixedWM38データセットを用いて,そのモデルを評価する。
WSCNの平均分類精度は98.2%、サイス係数は0.9999である。
MixedWM38データセットでセグメンテーション結果を示すのはこれが初めてです。
ソースコードはhttps://github.com/ckmvigil/WaferSegClassNetから取得できる。
関連論文リスト
- Representation Similarity: A Better Guidance of DNN Layer Sharing for Edge Computing without Training [3.792729116385123]
本稿では,表現類似度Sで導かれる表現をエッジで共有することで,新しいモデルマージ方式を提案する。
Pearson correlation Coefficient |r| > 0.94 than other metrics。
論文 参考訳(メタデータ) (2024-10-15T03:35:54Z) - SEMI-CenterNet: A Machine Learning Facilitated Approach for
Semiconductor Defect Inspection [0.10555513406636088]
我々は半導体ウエハ欠陥のSEM画像に基づいて学習したカスタマイズCNアーキテクチャであるSEMI-CenterNet(SEMI-CN)を提案する。
SEMI-CNは、欠陥インスタンスの中心、クラス、サイズ、オフセットを出力するように訓練される。
2つのデータセットでSEMI-CNをトレーニングし、2つのResNetバックボーンをベンチマークします。
論文 参考訳(メタデータ) (2023-08-14T14:39:06Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - SCA-Net: A Self-Correcting Two-Layer Autoencoder for Hyper-spectral
Unmixing [3.918940900258555]
本研究では,2層オートエンコーダ(SCA-Net)が,従来報告されていた値から10~5ドル程度のスケールの誤差測定値を実現することを示す。
また、両直交表現に基づくSCA-Netは、エンドメンバー数が過剰に指定された場合に自己補正を行うことを示す。
論文 参考訳(メタデータ) (2021-02-10T19:37:52Z) - A CNN-LSTM Quantifier for Single Access Point CSI Indoor Localization [9.601632184687787]
本稿では,Wi-Fiフィンガープリンティング屋内ローカライゼーションのための畳み込みニューラルネットワーク(CNN)と長寿命メモリ(LSTM)量子化器(LSTM)を組み合わせたネットワーク構造を提案する。
WiFiルータを1つだけ使うと、平均局所化誤差が2.5mで、4m未満の誤差は$mathrm80%である。
論文 参考訳(メタデータ) (2020-05-13T16:54:31Z) - Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance
Disparity Estimation [51.17232267143098]
ステレオ画像から3次元物体を検出するための新しいシステムDisp R-CNNを提案する。
我々は、LiDAR点雲を必要とせずに、統計的形状モデルを用いて、密度の異なる擬似地下構造を生成する。
KITTIデータセットの実験によると、LiDARの基盤構造がトレーニング時に利用できない場合でも、Disp R-CNNは競争性能を達成し、平均精度で従来の最先端手法を20%上回っている。
論文 参考訳(メタデータ) (2020-04-07T17:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。