論文の概要: AnoStyler: Text-Driven Localized Anomaly Generation via Lightweight Style Transfer
- arxiv url: http://arxiv.org/abs/2511.06687v1
- Date: Mon, 10 Nov 2025 04:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.070189
- Title: AnoStyler: Text-Driven Localized Anomaly Generation via Lightweight Style Transfer
- Title(参考訳): AnoStyler:軽量スタイル転送によるテキスト駆動の局所的異常生成
- Authors: Yulim So, Seokho Kang,
- Abstract要約: AnoStylerはテキスト誘導型転送としてゼロショット異常生成をフレーム化する。
CLIPベースの損失関数で訓練された軽量なU-Netモデルを用いて、通常の画像を視覚的にリアルな異常画像にスタイリングする。
- 参考スコア(独自算出の注目度): 14.610038284393164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly generation has been widely explored to address the scarcity of anomaly images in real-world data. However, existing methods typically suffer from at least one of the following limitations, hindering their practical deployment: (1) lack of visual realism in generated anomalies; (2) dependence on large amounts of real images; and (3) use of memory-intensive, heavyweight model architectures. To overcome these limitations, we propose AnoStyler, a lightweight yet effective method that frames zero-shot anomaly generation as text-guided style transfer. Given a single normal image along with its category label and expected defect type, an anomaly mask indicating the localized anomaly regions and two-class text prompts representing the normal and anomaly states are generated using generalizable category-agnostic procedures. A lightweight U-Net model trained with CLIP-based loss functions is used to stylize the normal image into a visually realistic anomaly image, where anomalies are localized by the anomaly mask and semantically aligned with the text prompts. Extensive experiments on the MVTec-AD and VisA datasets show that AnoStyler outperforms existing anomaly generation methods in generating high-quality and diverse anomaly images. Furthermore, using these generated anomalies helps enhance anomaly detection performance.
- Abstract(参考訳): 実世界のデータにおける異常画像の不足に対処するために、異常生成が広く研究されている。
しかし、既存の手法では、(1)生成した異常における視覚的リアリズムの欠如、(2)大量の実画像への依存、(3)メモリ集約の重厚なモデルアーキテクチャの使用など、現実的な展開を妨げている。
これらの制限を克服するために,テキスト誘導型転送としてゼロショット異常生成をフレーム化する軽量かつ効果的なAnoStylerを提案する。
局所異常領域を示す異常マスクと、正常状態と異常状態を表す2種類のテキストプロンプトとを、そのカテゴリラベルと期待欠陥タイプとともに1つの正常画像を生成する。
CLIPベースの損失関数で訓練された軽量なU-Netモデルは、正常な画像を視覚的にリアルな異常画像にスタイリングするために使用され、異常は異常マスクによって局所化され、テキストプロンプトに意味的に整合する。
MVTec-ADとVisAデータセットの大規模な実験により、AnoStylerは、高品質で多様な異常画像を生成するために、既存の異常生成方法より優れていることが示された。
さらに、これらの生成異常を用いることで、異常検出性能が向上する。
関連論文リスト
- Generate Aligned Anomaly: Region-Guided Few-Shot Anomaly Image-Mask Pair Synthesis for Industrial Inspection [53.137651284042434]
異常検査は製造業において重要な役割を担っているが、異常サンプルの不足は既存の方法の有効性を制限している。
本稿では,GAA (Generate grained Anomaly) を提案する。
GAAは少数のサンプルのみを用いて現実的で多様で意味的に整合した異常を発生させる。
論文 参考訳(メタデータ) (2025-07-13T12:56:59Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Dual-Interrelated Diffusion Model for Few-Shot Anomaly Image Generation [22.164957586513776]
製造業における異常検査の性能は異常データの不足によって制約される。
本稿では,新しい拡散型少数ショット画像生成モデルであるDualAnoDiffを提案する。
提案手法は,異常検出,異常局所化,異常分類タスクなど,下流異常検査タスクの性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-08-24T08:09:32Z) - AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model [59.08735812631131]
製造業において異常検査が重要な役割を担っている。
既存の異常検査手法は、異常データが不足しているため、その性能に制限がある。
本稿では,新しい拡散型マイクロショット異常生成モデルであるAnomalyDiffusionを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:13:40Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。