論文の概要: One Dinomaly2 Detect Them All: A Unified Framework for Full-Spectrum Unsupervised Anomaly Detection
- arxiv url: http://arxiv.org/abs/2510.17611v1
- Date: Mon, 20 Oct 2025 14:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.49092
- Title: One Dinomaly2 Detect Them All: A Unified Framework for Full-Spectrum Unsupervised Anomaly Detection
- Title(参考訳): One Dinomaly2 Detect them All: Unified Framework for Full-Spectrum Unsupervised Anomaly Detection
- Authors: Jia Guo, Shuai Lu, Lei Fan, Zelin Li, Donglin Di, Yang Song, Weihang Zhang, Wenbing Zhu, Hong Yan, Fang Chen, Huiqi Li, Hongen Liao,
- Abstract要約: 教師なし異常検出(UAD)は、特殊な単一クラスモデルの構築から、統一された多クラスモデルへと進化してきた。
Dinomaly2はフルスペクトル像UADのための最初の統一されたフレームワークである。
MVTec-AD と VisA では,前例のない 99.9% と 99.3% の画像レベル (I-) AUROC をそれぞれ達成している。
- 参考スコア(独自算出の注目度): 37.44241182701723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised anomaly detection (UAD) has evolved from building specialized single-class models to unified multi-class models, yet existing multi-class models significantly underperform the most advanced one-for-one counterparts. Moreover, the field has fragmented into specialized methods tailored to specific scenarios (multi-class, 3D, few-shot, etc.), creating deployment barriers and highlighting the need for a unified solution. In this paper, we present Dinomaly2, the first unified framework for full-spectrum image UAD, which bridges the performance gap in multi-class models while seamlessly extending across diverse data modalities and task settings. Guided by the "less is more" philosophy, we demonstrate that the orchestration of five simple element achieves superior performance in a standard reconstruction-based framework. This methodological minimalism enables natural extension across diverse tasks without modification, establishing that simplicity is the foundation of true universality. Extensive experiments on 12 UAD benchmarks demonstrate Dinomaly2's full-spectrum superiority across multiple modalities (2D, multi-view, RGB-3D, RGB-IR), task settings (single-class, multi-class, inference-unified multi-class, few-shot) and application domains (industrial, biological, outdoor). For example, our multi-class model achieves unprecedented 99.9% and 99.3% image-level (I-) AUROC on MVTec-AD and VisA respectively. For multi-view and multi-modal inspection, Dinomaly2 demonstrates state-of-the-art performance with minimum adaptations. Moreover, using only 8 normal examples per class, our method surpasses previous full-shot models, achieving 98.7% and 97.4% I-AUROC on MVTec-AD and VisA. The combination of minimalistic design, computational scalability, and universal applicability positions Dinomaly2 as a unified solution for the full spectrum of real-world anomaly detection applications.
- Abstract(参考訳): 教師なし異常検出(UAD)は、特殊な単一クラスモデルから統一された多クラスモデルへと進化してきたが、既存のマルチクラスモデルは最も先進的な1対1モデルよりも大幅に性能が劣っている。
さらに、フィールドは特定のシナリオ(複数クラス、3D、少数ショットなど)に適した特殊なメソッドに断片化され、デプロイメントバリアを作成し、統一されたソリューションの必要性を強調している。
本稿では,マルチクラスモデルの性能ギャップを埋めつつ,多様なデータモダリティやタスク設定をシームレスに拡張する,フルスペクトル像UADのための最初の統一フレームワークであるDinomaly2を提案する。
5つの単純な要素のオーケストレーションは、標準的な再構築ベースのフレームワークにおいて優れたパフォーマンスを実現することを実証する。
この方法論的最小主義は、変更することなく様々なタスクをまたいだ自然な拡張を可能にし、単純さが真の普遍性の基盤であることを確立する。
12のUADベンチマークに関する大規模な実験は、ダイノマリ2のマルチモード(2D、マルチビュー、RGB-3D、RGB-IR)、タスク設定(シングルクラス、マルチクラス、推論統一マルチクラス、少数ショット)、アプリケーションドメイン(工業、生物学的、屋外)にまたがるフルスペクトル優位性を実証している。
例えば、我々のマルチクラスモデルは、MVTec-AD と VisA において、前例のない 99.9% と 99.3% の画像レベル (I-) AUROC を達成する。
マルチビューおよびマルチモーダル検査において、Dinomaly2は最小限の適応で最先端の性能を示す。
さらに、クラスごとの通常の例は8つしかなく、従来のフルショットモデルを超え、MVTec-AD と VisA で 98.7% と 97.4% の I-AUROC を達成した。
最小限の設計、計算スケーラビリティ、および普遍的な応用可能性の組合せは、実世界の異常検出アプリケーションの全スペクトルに対する統一的なソリューションとして、Dinomaly2である。
関連論文リスト
- OneCAT: Decoder-Only Auto-Regressive Model for Unified Understanding and Generation [91.45421429922506]
OneCATは、理解、生成、編集をシームレスに統合する統合マルチモーダルモデルである。
我々のフレームワークは、推論中に視覚変換器(ViT)や視覚トークン化器などの外部コンポーネントを不要にする。
論文 参考訳(メタデータ) (2025-09-03T17:29:50Z) - SM3Det: A Unified Model for Multi-Modal Remote Sensing Object Detection [73.49799596304418]
本稿では,リモートセンシングのためのマルチモーダルデータセットとマルチタスクオブジェクト検出(M2Det)という新しいタスクを提案する。
水平方向または指向方向の物体を、あらゆるセンサーから正確に検出するように設計されている。
この課題は、1)マルチモーダルモデリングの管理に関わるトレードオフ、2)マルチタスク最適化の複雑さに起因する。
論文 参考訳(メタデータ) (2024-12-30T02:47:51Z) - Dinomaly: The Less Is More Philosophy in Multi-Class Unsupervised Anomaly Detection [31.028622674616134]
本稿では,再構成に基づく異常検出フレームワーク,すなわちDianomalyを紹介する。
提案したDinomalyは,3つのデータセットでそれぞれ99.6%,98.7%,89.3%のイメージレベルAUを達成した。
論文 参考訳(メタデータ) (2024-05-23T08:55:20Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。