論文の概要: Efficient Mixed-Type Wafer Defect Pattern Recognition Using Compact
Deformable Convolutional Transformers
- arxiv url: http://arxiv.org/abs/2303.13827v1
- Date: Fri, 24 Mar 2023 06:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:26:05.423755
- Title: Efficient Mixed-Type Wafer Defect Pattern Recognition Using Compact
Deformable Convolutional Transformers
- Title(参考訳): 小型変圧器を用いた複合型ウェーハ欠陥パターン認識
- Authors: Nitish Shukla
- Abstract要約: 混合型DPRは, 空間的特徴の変化, 欠陥の不確かさ, 存在する欠陥の数により, 単型DPRよりも複雑である。
本稿では, 欠陥数と欠陥の種類を正確に予測する, コンパクトな変形可能な畳み込み変圧器(DC Transformer)を提案する。
実験結果から,DCトランスフォーマーは単型と混合型の両方の欠陥を認識するのに極めて優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manufacturing wafers is an intricate task involving thousands of steps.
Defect Pattern Recognition (DPR) of wafer maps is crucial to find the root
cause of the issue and further improving the yield in the wafer foundry.
Mixed-type DPR is much more complicated compared to single-type DPR due to
varied spatial features, the uncertainty of defects, and the number of defects
present. To accurately predict the number of defects as well as the types of
defects, we propose a novel compact deformable convolutional transformer (DC
Transformer). Specifically, DC Transformer focuses on the global features
present in the wafer map by virtue of learnable deformable kernels and
multi-head attention to the global features. The proposed method succinctly
models the internal relationship between the wafer maps and the defects. DC
Transformer is evaluated on a real dataset containing 38 defect patterns.
Experimental results show that DC Transformer performs exceptionally well in
recognizing both single and mixed-type defects. The proposed method outperforms
the current state of the models by a considerable margin
- Abstract(参考訳): ウェハーの製造は何千ものステップを伴う複雑な作業です。
ウェハマップの欠陥パターン認識(DPR)は,問題の根本原因を見つけ,ウェハファウントリーの収量を改善するために重要である。
混合型DPRは, 空間的特徴の変化, 欠陥の不確かさ, 存在する欠陥の数により, 単型DPRよりも複雑である。
欠陥数と欠陥の種類を正確に予測するために, コンパクトな変形可能な畳み込み変圧器 (DC Transformer) を提案する。
特に、DC Transformerは、学習可能な変形可能なカーネルとグローバル機能へのマルチヘッドによる、ウェハマップに存在するグローバル機能に焦点を当てている。
提案手法は,ウェハマップと欠陥の関係を簡潔にモデル化する。
DC Transformerは38の欠陥パターンを含む実際のデータセットで評価される。
実験結果から,DCトランスフォーマーは単型と混合型の両方の欠陥を認識するのに極めて優れた性能を示した。
提案手法はモデルの現在の状態をかなりのマージンで上回る
関連論文リスト
- Differential Transformer [99.5117269150629]
トランスフォーマーは、無関係な文脈に注意を向ける傾向がある。
Diff Transformerを導入し、ノイズをキャンセルしながら関連するコンテキストに注意を向ける。
ロングコンテキストモデリング、キー情報検索、幻覚緩和、インコンテキスト学習、アクティベーションアウトリーの削減など、実用的な応用において顕著な利点がある。
論文 参考訳(メタデータ) (2024-10-07T17:57:38Z) - WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Few-Shot Class Incremental Learning via Robust Transformer Approach [16.590193619691416]
Few-Shot Class-Incremental Learningは,データ不足の問題にモデルが直面しているクラス増分学習問題の拡張を提示する。
この問題は、最近のすべての研究が、準最適に実行される畳み込みニューラルネットワークの上に構築されているため、未解決の問題のままである。
本稿では,コンパクト畳み込み変換器を用いたロバスト変換器を提案する。
論文 参考訳(メタデータ) (2024-05-08T03:35:52Z) - PIDformer: Transformer Meets Control Theory [28.10913642120948]
我々は、そのソリューションのスムーズさを本質的に促進する自律的状態空間モデルとして自己意識を公表する。
モデルに参照点を持つPID(Proportional-Integral-Derivative)クローズドループフィードバック制御システムを導入し,ロバスト性や表現能力の向上を図る。
この制御フレームワークにより、新しい変換器のクラス、PID制御変換器(PIDformer)を導出する。
論文 参考訳(メタデータ) (2024-02-25T05:04:51Z) - DiffusionPCR: Diffusion Models for Robust Multi-Step Point Cloud
Registration [73.37538551605712]
ポイントクラウド登録(PCR)は、2つのポイントクラウド間の相対的な厳密な変換を推定する。
本稿では, PCR を拡散確率過程として定式化し, ノイズ変換を基礎的真理にマッピングする。
実験ではDiffusionPCRの有効性を示し,3Dおよび3DLoMatchに対する最先端の登録リコール率(95.3%/81.6%)を得た。
論文 参考訳(メタデータ) (2023-12-05T18:59:41Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - CINFormer: Transformer network with multi-stage CNN feature injection
for surface defect segmentation [73.02218479926469]
表面欠陥分割のための多段CNN特徴注入を用いた変圧器ネットワークを提案する。
CINFormerは、入力画像のマルチレベルCNN機能をエンコーダ内のトランスフォーマーネットワークの異なるステージに注入する、シンプルだが効果的な機能統合機構を提供する。
さらに、CINFormerはTop-Kセルフアテンションモジュールを提供し、欠陥に関するより重要な情報を持つトークンにフォーカスする。
論文 参考訳(メタデータ) (2023-09-22T06:12:02Z) - Mixed-Type Wafer Classification For Low Memory Devices Using Knowledge
Distillation [0.5261718469769447]
ウェーハマップの欠陥パターン認識(DPR)は、生産欠陥の根本原因を決定するために重要である。
本研究では,複雑な事前学習モデルから軽量な展開対応モデルへの知識を抽出するための教師なしトレーニングルーチンを提案する。
本研究では,教師モデルよりも最大10倍小さいにもかかわらず,精度を犠牲にすることなくモデルを圧縮できることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-24T12:52:43Z) - Defect Transformer: An Efficient Hybrid Transformer Architecture for
Surface Defect Detection [2.0999222360659604]
表面欠陥検出のための効率的なハイブリッドトランスアーキテクチャであるDefect Transformer (DefT)を提案する。
DefTはCNNとTransformerを統一モデルに組み込んで、局所的および非局所的関係を協調的にキャプチャする。
3つのデータセットの実験は、他のCNNやトランスフォーマーベースのネットワークと比較して、我々の手法の優位性と効率性を実証している。
論文 参考訳(メタデータ) (2022-07-17T23:37:48Z) - Wave-ViT: Unifying Wavelet and Transformers for Visual Representation
Learning [138.29273453811945]
マルチスケールビジョントランス (ViT) はコンピュータビジョンタスクの強力なバックボーンとして登場した。
本稿では,ウェーブレット変換と自己注意学習を用いて,可逆的なダウンサンプリングを定式化する新しいウェーブレットビジョン変換器(textbfWave-ViT)を提案する。
論文 参考訳(メタデータ) (2022-07-11T16:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。