論文の概要: Semiconductor Wafer Map Defect Classification with Tiny Vision Transformers
- arxiv url: http://arxiv.org/abs/2504.02494v1
- Date: Thu, 03 Apr 2025 11:18:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:14.209054
- Title: Semiconductor Wafer Map Defect Classification with Tiny Vision Transformers
- Title(参考訳): Tiny Vision Transformerを用いた半導体ウェハマップの欠陥分類
- Authors: Faisal Mohammad, Duksan Ryu,
- Abstract要約: ウエハ欠陥分類に最適化された軽量ビジョントランス (ViT) フレームワークであるViT-Tinyを提案する。
ViT-Tinyは、MSF-TransやCNNベースのアーキテクチャなど、ViT-BaseとSOTA(State-of-the-art)モデルよりも優れている。
98.4%のF1スコアを達成し、4つの欠陥分類でMSF-Transを2.94%上回り、2つの欠陥分類では2.86%のリコールを改善し、3つの欠陥分類では3.13%の精度で精度を上げている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Semiconductor wafer defect classification is critical for ensuring high precision and yield in manufacturing. Traditional CNN-based models often struggle with class imbalances and recognition of the multiple overlapping defect types in wafer maps. To address these challenges, we propose ViT-Tiny, a lightweight Vision Transformer (ViT) framework optimized for wafer defect classification. Trained on the WM-38k dataset. ViT-Tiny outperforms its ViT-Base counterpart and state-of-the-art (SOTA) models, such as MSF-Trans and CNN-based architectures. Through extensive ablation studies, we determine that a patch size of 16 provides optimal performance. ViT-Tiny achieves an F1-score of 98.4%, surpassing MSF-Trans by 2.94% in four-defect classification, improving recall by 2.86% in two-defect classification, and increasing precision by 3.13% in three-defect classification. Additionally, it demonstrates enhanced robustness under limited labeled data conditions, making it a computationally efficient and reliable solution for real-world semiconductor defect detection.
- Abstract(参考訳): 半導体ウェハ欠陥分類は、製造において高い精度と収率を確保するために重要である。
伝統的なCNNベースのモデルは、クラス不均衡とウェハマップの多重重なり合う欠陥の認識にしばしば苦労する。
これらの課題に対処するために、ウエハ欠陥分類に最適化された軽量ビジョントランスフォーマ(ViT)フレームワークであるViT-Tinyを提案する。
WM-38kデータセットでトレーニングされた。
ViT-Tinyは、MSF-TransやCNNベースのアーキテクチャなど、ViT-BaseとSOTA(State-of-the-art)モデルよりも優れている。
広範囲にわたるアブレーション研究を通して、16のパッチサイズが最適な性能をもたらすと判断する。
ViT-TinyのF1スコアは98.4%、MSF-Transの4つの欠陥分類では2.94%を超え、2つの欠陥分類では2.86%、三つの欠陥分類では3.13%向上している。
さらに、ラベル付きデータ条件で強化されたロバスト性を示し、実世界の半導体欠陥検出のための計算効率が高く信頼性の高いソリューションとなる。
関連論文リスト
- Fab-ME: A Vision State-Space and Attention-Enhanced Framework for Fabric Defect Detection [4.272401529389713]
YOLOv8sをベースとした先進的なフレームワークであるFab-MEを提案し,20種類のファブリック欠陥を正確に検出する。
コントリビューションには2つのコンボリューション(C2F)ビジョン状態空間(C2F-VMamba)モジュールによるクロスステージ部分ボトルネックの導入が含まれている。
Tianchiファブリック欠陥検出データセットの実験結果から、Fab-MEは元のYOLOv8と比べてmAP@0.5で3.5%改善していることがわかった。
論文 参考訳(メタデータ) (2024-12-04T10:40:17Z) - Wafer Map Defect Classification Using Autoencoder-Based Data Augmentation and Convolutional Neural Network [4.8748194765816955]
本研究では、自己エンコーダに基づくデータ拡張技術と畳み込みニューラルネットワーク(CNN)を組み合わせた新しい手法を提案する。
提案手法は,ランダムフォレスト,SVM,ロジスティック回帰をそれぞれ19%,21%,27%以上,98.56%の分類精度を達成している。
論文 参考訳(メタデータ) (2024-11-17T10:19:54Z) - Utilizing Generative Adversarial Networks for Image Data Augmentation and Classification of Semiconductor Wafer Dicing Induced Defects [0.21990652930491852]
半導体製造において、ウエハダイシングプロセスは中心的でありながら、収率を著しく損なう欠陥に対して脆弱である。
深層ニューラルネットワーク(Deep Neural Network)は、半自動視覚検査における最先端技術である。
本稿では, 半導体ウェハダイシングによる欠陥の画像データの増大と分類にGAN(Generative Adversarial Network)の適用について検討する。
論文 参考訳(メタデータ) (2024-07-24T20:44:16Z) - PotatoPestNet: A CTInceptionV3-RS-Based Neural Network for Accurate
Identification of Potato Pests [0.0]
本稿では,PotatoPestNet AIを用いた自動ポテト害虫識別システムを提案する。
我々は5つのカスタマイズされた事前学習モデルを用いることで、トランスファー学習のパワーを生かした。
モデルのうち、ランダム検索によって最適化されたCustomized Tuned Inception V3モデルは優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-27T17:38:16Z) - Getting ViT in Shape: Scaling Laws for Compute-Optimal Model Design [84.34416126115732]
スケーリング法則は、最近、与えられた計算時間に最適なモデルサイズ(パラメータの数)を導出するために用いられる。
我々は、幅や深さなどの計算最適モデル形状を推測する手法を進化させ、改良し、視覚変換器でこれを実装した。
我々の形状最適化型視覚変換器SoViTは、同等の計算量で事前訓練されているにもかかわらず、サイズが2倍以上のモデルと競合する結果を得る。
論文 参考訳(メタデータ) (2023-05-22T13:39:28Z) - LaCViT: A Label-aware Contrastive Fine-tuning Framework for Vision
Transformers [18.76039338977432]
ビジョントランスフォーマー(ViT)はコンピュータビジョンの一般的なモデルとして登場し、様々なタスクで最先端のパフォーマンスを実証している。
本稿では,新しいラベル対応コントラストトレーニングフレームワークであるLaCViTを紹介する。
LaCViTは3つの評価されたViTの性能をTop-1精度で最大10.78%向上させる。
論文 参考訳(メタデータ) (2023-03-31T12:38:08Z) - Q-ViT: Accurate and Fully Quantized Low-bit Vision Transformer [56.87383229709899]
我々は、完全量子化視覚変換器(Q-ViT)のための情報修正モジュール(IRM)と分配誘導蒸留法を開発した。
我々の手法は、先行技術よりもはるかに優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-13T04:00:29Z) - Semi-supervised Vision Transformers at Scale [93.0621675558895]
視覚変換器(ViT)のための半教師あり学習(SSL)について検討する。
我々は、最初のun/self教師付き事前トレーニングと教師付き微調整、そして最後に半教師付き微調整からなる新しいSSLパイプラインを提案する。
提案手法はSemi-ViTと呼ばれ,半教師付き分類設定においてCNNと同等あるいは同等の性能を達成している。
論文 参考訳(メタデータ) (2022-08-11T08:11:54Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。