論文の概要: AnoStyler: Text-Driven Localized Anomaly Generation via Lightweight Style Transfer
- arxiv url: http://arxiv.org/abs/2511.06687v1
- Date: Mon, 10 Nov 2025 04:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.070189
- Title: AnoStyler: Text-Driven Localized Anomaly Generation via Lightweight Style Transfer
- Title(参考訳): AnoStyler:軽量スタイル転送によるテキスト駆動の局所的異常生成
- Authors: Yulim So, Seokho Kang,
- Abstract要約: AnoStylerはテキスト誘導型転送としてゼロショット異常生成をフレーム化する。
CLIPベースの損失関数で訓練された軽量なU-Netモデルを用いて、通常の画像を視覚的にリアルな異常画像にスタイリングする。
- 参考スコア(独自算出の注目度): 14.610038284393164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly generation has been widely explored to address the scarcity of anomaly images in real-world data. However, existing methods typically suffer from at least one of the following limitations, hindering their practical deployment: (1) lack of visual realism in generated anomalies; (2) dependence on large amounts of real images; and (3) use of memory-intensive, heavyweight model architectures. To overcome these limitations, we propose AnoStyler, a lightweight yet effective method that frames zero-shot anomaly generation as text-guided style transfer. Given a single normal image along with its category label and expected defect type, an anomaly mask indicating the localized anomaly regions and two-class text prompts representing the normal and anomaly states are generated using generalizable category-agnostic procedures. A lightweight U-Net model trained with CLIP-based loss functions is used to stylize the normal image into a visually realistic anomaly image, where anomalies are localized by the anomaly mask and semantically aligned with the text prompts. Extensive experiments on the MVTec-AD and VisA datasets show that AnoStyler outperforms existing anomaly generation methods in generating high-quality and diverse anomaly images. Furthermore, using these generated anomalies helps enhance anomaly detection performance.
- Abstract(参考訳): 実世界のデータにおける異常画像の不足に対処するために、異常生成が広く研究されている。
しかし、既存の手法では、(1)生成した異常における視覚的リアリズムの欠如、(2)大量の実画像への依存、(3)メモリ集約の重厚なモデルアーキテクチャの使用など、現実的な展開を妨げている。
これらの制限を克服するために,テキスト誘導型転送としてゼロショット異常生成をフレーム化する軽量かつ効果的なAnoStylerを提案する。
局所異常領域を示す異常マスクと、正常状態と異常状態を表す2種類のテキストプロンプトとを、そのカテゴリラベルと期待欠陥タイプとともに1つの正常画像を生成する。
CLIPベースの損失関数で訓練された軽量なU-Netモデルは、正常な画像を視覚的にリアルな異常画像にスタイリングするために使用され、異常は異常マスクによって局所化され、テキストプロンプトに意味的に整合する。
MVTec-ADとVisAデータセットの大規模な実験により、AnoStylerは、高品質で多様な異常画像を生成するために、既存の異常生成方法より優れていることが示された。
さらに、これらの生成異常を用いることで、異常検出性能が向上する。
関連論文リスト
- Generate Aligned Anomaly: Region-Guided Few-Shot Anomaly Image-Mask Pair Synthesis for Industrial Inspection [53.137651284042434]
異常検査は製造業において重要な役割を担っているが、異常サンプルの不足は既存の方法の有効性を制限している。
本稿では,GAA (Generate grained Anomaly) を提案する。
GAAは少数のサンプルのみを用いて現実的で多様で意味的に整合した異常を発生させる。
論文 参考訳(メタデータ) (2025-07-13T12:56:59Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Bi-Grid Reconstruction for Image Anomaly Detection [0.0]
本稿では,textbfGRAD: Bi-textbfGrid textbfReconstruction for Image textbfAnomaly textbfDetectionを紹介する。
2つの連続格子を用いて、正常な視点と異常な視点の両方から異常検出を強化する。
全体的な精度と微妙な違いを識別し、既存の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-01T10:06:38Z) - LDR-Net: A Novel Framework for AI-generated Image Detection via Localized Discrepancy Representation [30.677834580640123]
本稿では,AI生成画像を検出するために,LDR-Net(Localized Disrepancy representation Network)を提案する。
LDR-Netはスムーズなアーティファクトやテクスチャの不規則をキャプチャする。
生成した画像の検出における最先端性能を実現し、目に見えない生成モデル間で満足な一般化を示す。
論文 参考訳(メタデータ) (2025-01-23T08:46:39Z) - Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [109.72772150095646]
FAPromptは、精密なZSADのためのきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
産業的欠陥と医療的異常の両方をカバーする19の実世界のデータセットの実験は、FAPromptが画像レベルのZSADタスクとピクセルレベルのZSADタスクの両方で最先端の手法を大幅に上回っていることを実証している。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Dual-Interrelated Diffusion Model for Few-Shot Anomaly Image Generation [22.164957586513776]
製造業における異常検査の性能は異常データの不足によって制約される。
本稿では,新しい拡散型少数ショット画像生成モデルであるDualAnoDiffを提案する。
提案手法は,異常検出,異常局所化,異常分類タスクなど,下流異常検査タスクの性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-08-24T08:09:32Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model [59.08735812631131]
製造業において異常検査が重要な役割を担っている。
既存の異常検査手法は、異常データが不足しているため、その性能に制限がある。
本稿では,新しい拡散型マイクロショット異常生成モデルであるAnomalyDiffusionを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:13:40Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - AnoViT: Unsupervised Anomaly Detection and Localization with Vision
Transformer-based Encoder-Decoder [3.31490164885582]
我々は,画像パッチ間のグローバルな関係を学習することにより,通常の情報を反映する視覚変換器を用いたエンコーダデコーダモデルAnoViTを提案する。
提案モデルは,3つのベンチマークデータセット上での畳み込みモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-03-21T09:01:37Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。