論文の概要: Mixed-Type Wafer Classification For Low Memory Devices Using Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2303.13974v1
- Date: Fri, 24 Mar 2023 12:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:28:57.386138
- Title: Mixed-Type Wafer Classification For Low Memory Devices Using Knowledge
Distillation
- Title(参考訳): 知識蒸留を用いた低メモリデバイス用混合型ウェハ分類
- Authors: Nitish Shukla, Anurima Dey, Srivatsan K
- Abstract要約: ウェーハマップの欠陥パターン認識(DPR)は、生産欠陥の根本原因を決定するために重要である。
本研究では,複雑な事前学習モデルから軽量な展開対応モデルへの知識を抽出するための教師なしトレーニングルーチンを提案する。
本研究では,教師モデルよりも最大10倍小さいにもかかわらず,精度を犠牲にすることなくモデルを圧縮できることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manufacturing wafers is an intricate task involving thousands of steps.
Defect Pattern Recognition (DPR) of wafer maps is crucial for determining the
root cause of production defects, which may further provide insight for yield
improvement in wafer foundry. During manufacturing, various defects may appear
standalone in the wafer or may appear as different combinations. Identifying
multiple defects in a wafer is generally harder compared to identifying a
single defect. Recently, deep learning methods have gained significant traction
in mixed-type DPR. However, the complexity of defects requires complex and
large models making them very difficult to operate on low-memory embedded
devices typically used in fabrication labs. Another common issue is the
unavailability of labeled data to train complex networks. In this work, we
propose an unsupervised training routine to distill the knowledge of complex
pre-trained models to lightweight deployment-ready models. We empirically show
that this type of training compresses the model without sacrificing accuracy
despite being up to 10 times smaller than the teacher model. The compressed
model also manages to outperform contemporary state-of-the-art models.
- Abstract(参考訳): ウェハーの製造は何千ものステップを伴う複雑な作業です。
ウェハマップの欠陥パターン認識(DPR)は生産欠陥の根本原因決定に不可欠であり、ウェハファウントリーの収量改善の洞察を与える可能性がある。
製造中、様々な欠陥がウエハに単独で現れるか、異なる組み合わせとして現れる。
ウエハ内の複数の欠陥を特定することは、単一の欠陥を特定するよりも一般的に難しい。
近年,混合型DPRの深層学習手法が注目されている。
しかし、欠陥の複雑さは複雑で大きなモデルを必要とするため、製造ラボで一般的に使用される低メモリの組み込みデバイスで運用するのが非常に困難である。
もうひとつの一般的な問題は、複雑なネットワークをトレーニングするためのラベル付きデータの可用性の欠如である。
本研究では,複雑な事前学習モデルの知識を軽量なデプロイメント対応モデルに割くための教師なしトレーニングルーチンを提案する。
教師モデルよりも最大10倍小さくても, 精度を犠牲にすることなく, モデルを圧縮できることを実証的に示す。
圧縮されたモデルは、現代の最先端モデルよりも優れている。
関連論文リスト
- Decouple-Then-Merge: Towards Better Training for Diffusion Models [45.89372687373466]
拡散モデルは、ノイズ破損の各ステップを反転させる一連のモデルを学ぶことで訓練される。
この研究はDeouple-then-Merge(DeMe)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T08:19:25Z) - One-Step Diffusion Distillation via Deep Equilibrium Models [64.11782639697883]
本稿では,拡散モデルを初期雑音から得られた画像に直接蒸留する簡易かつ効果的な方法を提案する。
本手法は,拡散モデルからノイズ/イメージペアのみによる完全オフライントレーニングを可能にする。
GET は FID スコアの点で 5 倍の ViT と一致するので,DEC アーキテクチャがこの能力に不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-12T07:28:40Z) - Wafer Map Defect Patterns Semi-Supervised Classification Using Latent
Vector Representation [8.400553138721044]
集積回路製造段階における欠陥検出の需要はますます重要になりつつある。
従来のウェハマップ欠陥パターン検出法は、電子顕微鏡を用いた手動検査を含む。
手動操作の代わりに欠陥を自動的に検出できるモデルを提案する。
論文 参考訳(メタデータ) (2023-10-06T08:23:36Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Understanding and Mitigating Copying in Diffusion Models [53.03978584040557]
安定拡散のような拡散モデルによって生成される画像は、ますます広まっている。
最近の研究や訴訟でも、これらのモデルがトレーニングデータを複製する傾向にあることが示されている。
論文 参考訳(メタデータ) (2023-05-31T17:58:02Z) - Efficient Mixed-Type Wafer Defect Pattern Recognition Using Compact
Deformable Convolutional Transformers [0.0]
混合型DPRは, 空間的特徴の変化, 欠陥の不確かさ, 存在する欠陥の数により, 単型DPRよりも複雑である。
本稿では, 欠陥数と欠陥の種類を正確に予測する, コンパクトな変形可能な畳み込み変圧器(DC Transformer)を提案する。
実験結果から,DCトランスフォーマーは単型と混合型の両方の欠陥を認識するのに極めて優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-24T06:24:07Z) - An Embarrassingly Simple Approach for Wafer Feature Extraction and
Defect Pattern Recognition [0.0]
本稿では,ウェハ画像から特徴を抽出する手法を提案する。
提案手法は極めて高速で直感的であり,説明可能でありながら非パラメトリックである。
我々の特徴抽出は、解釈可能性分析によって明らかになったデータポイントの相対的な形状と位置を保ちながら、トレーニングや微調整を必要としない。
論文 参考訳(メタデータ) (2023-03-21T07:00:13Z) - Learning to Identify Drilling Defects in Turbine Blades with Single
Stage Detectors [15.842163335920954]
タービンブレードのX線画像における網膜ドリル欠陥に基づくモデルを提案する。
このアプリケーションは、欠陥が非常に小さく、一般的に使用されるアンカーサイズによって捉えられにくい画像解像度のため、難しい。
このモデルを3ドルのクロスバリデーションで検証し,欠陥のある画像の同定に極めて高い精度を示す。
論文 参考訳(メタデータ) (2022-08-08T18:44:51Z) - PLATON: Pruning Large Transformer Models with Upper Confidence Bound of
Weight Importance [114.1541203743303]
本稿では,重要度推定の上位信頼度境界(UCB)による重要度スコアの不確かさを捉えるPLATONを提案する。
我々は、自然言語理解、質問応答、画像分類に関するトランスフォーマーモデルを用いて、広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2022-06-25T05:38:39Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。