論文の概要: AdapTS: Lightweight Teacher-Student Approach for Multi-Class and Continual Visual Anomaly Detection
- arxiv url: http://arxiv.org/abs/2603.17530v1
- Date: Wed, 18 Mar 2026 09:39:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.609154
- Title: AdapTS: Lightweight Teacher-Student Approach for Multi-Class and Continual Visual Anomaly Detection
- Title(参考訳): AdapTS:マルチクラス・連続視覚異常検出のための軽量教師学習アプローチ
- Authors: Manuel Barusco, Davide Dalle Pezze, Francesco Borsatti, Gian Antonio Susto,
- Abstract要約: AdapTSは、マルチクラスおよび連続的な設定のために設計された、統合されたTeacher-Student (TS)フレームワークである。
AdapTSは、単一の共有冷凍バックボーンを利用することで、2つの異なるアーキテクチャを必要としない。
最も軽量なAdapTS-Sでは、追加メモリは8MB、STFPM(95MB)より13倍、RD4AD(360MB)より48倍、DeSTSeg(1120MB)より149倍少なくなります。
- 参考スコア(独自算出の注目度): 12.08333031011204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Anomaly Detection (VAD) is crucial for industrial inspection, yet most existing methods are limited to single-category scenarios, failing to address the multi-class and continual learning demands of real-world environments. While Teacher-Student (TS) architectures are efficient, they remain unexplored for the Continual Setting. To bridge this gap, we propose AdapTS, a unified TS framework designed for multi-class and continual settings, optimized for edge deployment. AdapTS eliminates the need for two different architectures by utilizing a single shared frozen backbone and injecting lightweight trainable adapters into the student pathway. Training is enhanced via a segmentation-guided objective and synthetic Perlin noise, while a prototype-based task identification mechanism dynamically selects adapters at inference with 99\% accuracy. Experiments on MVTec AD and VisA demonstrate that AdapTS matches the performance of existing TS methods across multi-class and continual learning scenarios, while drastically reducing memory overhead. Our lightest variant, AdapTS-S, requires only 8 MB of additional memory, 13x less than STFPM (95 MB), 48x less than RD4AD (360 MB), and 149x less than DeSTSeg (1120 MB), making it a highly scalable solution for edge deployment in complex industrial environments.
- Abstract(参考訳): 視覚異常検出(VAD)は産業検査において重要であるが、既存のほとんどの手法は単一カテゴリのシナリオに限られており、実世界の環境におけるマルチクラスおよび連続的な学習要求に対処できない。
Teacher-Student (TS) アーキテクチャは効率的だが、継続設定のために探索されていない。
このギャップを埋めるため,エッジ配置に最適化されたマルチクラスおよび連続的な設定用に設計された統合TSフレームワークであるAdapTSを提案する。
AdapTSは、単一の共有冷凍バックボーンを利用し、軽量なトレーニング可能なアダプタを学生パスに注入することで、2つの異なるアーキテクチャの必要性を排除している。
トレーニングはセグメンテーション誘導目標と合成パーリンノイズによって強化され、プロトタイプベースのタスク識別機構は、99\%の精度で推論時にアダプタを動的に選択する。
MVTec ADとVisAの実験では、AdapTSが既存のTSメソッドのパフォーマンスとマルチクラスおよび連続的な学習シナリオで一致し、メモリオーバーヘッドを大幅に削減することを示した。
最も軽量なAdapTS-Sは8MBの追加メモリしか必要とせず、STFPM (95 MB) より13倍少なく、RD4AD (360 MB) より48倍小さく、DeSTSeg (1120 MB) より149倍少ないため、複雑な産業環境においてエッジデプロイメントのための高度にスケーラブルなソリューションになります。
関連論文リスト
- P2L-CA: An Effective Parameter Tuning Framework for Rehearsal-Free Multi-Label Class-Incremental Learning [54.44287764570792]
本稿では,Prompt-to-LabelモジュールとContinuous Adapterモジュールを統合するパラメータ効率フレームワークであるP2L-CAを紹介する。
P2L-CAは最先端の手法よりも大幅に改善されているだけでなく、CILシナリオの強力な一般化も示している。
論文 参考訳(メタデータ) (2026-01-19T04:35:04Z) - One Dinomaly2 Detect Them All: A Unified Framework for Full-Spectrum Unsupervised Anomaly Detection [37.44241182701723]
教師なし異常検出(UAD)は、特殊な単一クラスモデルの構築から、統一された多クラスモデルへと進化してきた。
Dinomaly2はフルスペクトル像UADのための最初の統一されたフレームワークである。
MVTec-AD と VisA では,前例のない 99.9% と 99.3% の画像レベル (I-) AUROC をそれぞれ達成している。
論文 参考訳(メタデータ) (2025-10-20T14:57:52Z) - Put Teacher in Student's Shoes: Cross-Distillation for Ultra-compact Model Compression Framework [48.66685912952879]
We introduced Edge Ultra-lIte BERT framework with a novel cross-distillation method。
我々は,自然言語理解(NLU)タスクにおいて,たった1.91MBの非常にコンパクトなBERTモデルを実現する。
論文 参考訳(メタデータ) (2025-07-07T03:38:09Z) - MASS: MoErging through Adaptive Subspace Selection [55.03293736484465]
モデルマージの新しいアプローチであるMASS(MoErging through Adaptive Subspace Selection)を提案する。
MASSはタスクごとに最も健全な特異なコンポーネントのみを格納し、それらを共有モデルにマージする。
我々は,8,14,20タスクのベンチマークに対して,ViT-B-16,ViT-B-32,ViT-L-14を用いて,CLIPに基づく画像分類のMASSを評価する。
論文 参考訳(メタデータ) (2025-04-06T08:49:52Z) - Unified Anomaly Detection methods on Edge Device using Knowledge Distillation and Quantization [4.6651371876849]
欠陥検出を用いたほとんどの異常検出アプローチでは、各クラスに個別のモデルを適用する必要がある1クラスモデルを採用している。
本研究では,統一型マルチクラス構成について検討する。
実験により,マルチクラスモデルは標準MVTec ADデータセットの1クラスモデルと同等に動作することが示された。
論文 参考訳(メタデータ) (2024-07-03T10:04:48Z) - Exploring Plain ViT Reconstruction for Multi-class Unsupervised Anomaly Detection [128.40330044868293]
Vision Transformer (ViT) では、より単純なアーキテクチャが複数のドメインで有効であることが証明されている。
ViTADはMVTec AD、VisA、Uni-Medicalデータセット上で最先端の結果と効率を達成する。
論文 参考訳(メタデータ) (2023-12-12T18:28:59Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - UniPELT: A Unified Framework for Parameter-Efficient Language Model
Tuning [64.638804236566]
本稿では,異なるPELTメソッドをサブモジュールとして組み込んだ統一フレームワークUniPELTを提案する。
注目すべきは、GLUEベンチマークにおいて、UniPELTは、異なる設定で微調整を組み込んだり、性能を上回る、最高のPELTメソッドと比較して、一貫して13パーセントのゲインを達成していることだ。
論文 参考訳(メタデータ) (2021-10-14T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。