論文の概要: MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning
- arxiv url: http://arxiv.org/abs/2505.09265v1
- Date: Wed, 14 May 2025 10:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.420749
- Title: MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning
- Title(参考訳): MetaUAS: ワンプロメタラーニングによるユニバーサルな異常セグメンテーション
- Authors: Bin-Bin Gao,
- Abstract要約: 本稿では,異常セグメンテーションを変化セグメンテーションに統一する新しいパラダイムを提案する。
We propose a one-prompt Meta-learning framework for Universal Anomaly (MetaUAS)。
本手法は,正常な画像プロンプトを1つだけ有する異常を効果的かつ効率的に分割する。
- 参考スコア(独自算出の注目度): 4.887838886202545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero- and few-shot visual anomaly segmentation relies on powerful vision-language models that detect unseen anomalies using manually designed textual prompts. However, visual representations are inherently independent of language. In this paper, we explore the potential of a pure visual foundation model as an alternative to widely used vision-language models for universal visual anomaly segmentation. We present a novel paradigm that unifies anomaly segmentation into change segmentation. This paradigm enables us to leverage large-scale synthetic image pairs, featuring object-level and local region changes, derived from existing image datasets, which are independent of target anomaly datasets. We propose a one-prompt Meta-learning framework for Universal Anomaly Segmentation (MetaUAS) that is trained on this synthetic dataset and then generalizes well to segment any novel or unseen visual anomalies in the real world. To handle geometrical variations between prompt and query images, we propose a soft feature alignment module that bridges paired-image change perception and single-image semantic segmentation. This is the first work to achieve universal anomaly segmentation using a pure vision model without relying on special anomaly detection datasets and pre-trained visual-language models. Our method effectively and efficiently segments any anomalies with only one normal image prompt and enjoys training-free without guidance from language. Our MetaUAS significantly outperforms previous zero-shot, few-shot, and even full-shot anomaly segmentation methods. The code and pre-trained models are available at https://github.com/gaobb/MetaUAS.
- Abstract(参考訳): ゼロショットと少数ショットの視覚異常セグメンテーションは、手動で設計したテキストプロンプトを使用して見えない異常を検出する強力な視覚言語モデルに依存している。
しかし、視覚表現は本質的に言語から独立している。
本稿では,広義の視覚言語モデルに代わる純粋視覚基盤モデルの可能性について検討する。
本稿では,異常セグメンテーションを変化セグメンテーションに統一する新しいパラダイムを提案する。
このパラダイムにより、ターゲットの異常データセットとは無関係な既存の画像データセットから派生した、オブジェクトレベルとローカル領域の変化を特徴とする大規模な合成画像ペアを活用することができる。
本稿では,この合成データセットをトレーニングし,新しい視覚異常や見えない視覚異常を実世界においてセグメント化するための,ワンプロンプトなメタラーニングフレームワークを提案する。
本稿では,プロンプト画像と問合せ画像の幾何学的変動に対処するため,ペア画像変化知覚と単一画像意味的セグメンテーションをブリッジするソフトな特徴アライメントモジュールを提案する。
これは、特別な異常検出データセットや事前学習された視覚言語モデルに頼ることなく、純粋な視覚モデルを用いて、普遍的な異常セグメンテーションを実現する最初の研究である。
本手法は,正常な画像プロンプトを1つだけ有する異常を効果的かつ効率的に分割し,言語からの指導なしに訓練を楽しむ。
私たちのMetaUASは、以前のゼロショット、少数ショット、さらにはフルショットの異常セグメンテーションメソッドよりも大幅に優れています。
コードと事前訓練されたモデルはhttps://github.com/gaobb/MetaUAS.comで入手できる。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
インコンテキストセグメンテーションは、与えられた参照画像を使ってオブジェクトをセグメンテーションすることを目的としている。
既存のほとんどのアプローチでは、視覚的プロンプトと入力画像クエリの相関を構築するために、メトリックラーニングやマスク付きイメージモデリングを採用しています。
この研究は、新しい視点から問題にアプローチし、コンテキスト内セグメンテーションのための潜在拡散モデルの能力を解き放つ。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - MetaSeg: Content-Aware Meta-Net for Omni-Supervised Semantic
Segmentation [17.59676962334776]
弱いオブジェクトレベルのアノテーションから生成された擬似セグメンテーションラベルに必然的に存在するノイズラベル。
メタラーニングの最近の進歩に触発されて、クリーンラベルの背後に隠されたノイズを受動的に許容するのに苦労するのではなく、より実用的な解決策は、ノイズの多い領域を積極的に見つけることである、と私たちは主張する。
本稿では,任意のセグメンテーションモデルに対応するノイズインジケータとして,CAM-Netを主成分とするメタ学習に基づくセグメンテーション手法MetaSegを提案する。
論文 参考訳(メタデータ) (2024-01-22T07:31:52Z) - Aligning and Prompting Everything All at Once for Universal Visual
Perception [79.96124061108728]
APEは、さまざまなタスクを実行するために、すべてのことを一度に調整し、促す、普遍的な視覚知覚モデルである。
APEは、言語誘導接地をオープン語彙検出として再構成することで、検出と接地の収束を推し進める。
160以上のデータセットの実験では、APEが最先端のモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-12-04T18:59:50Z) - Grounding Everything: Emerging Localization Properties in
Vision-Language Transformers [51.260510447308306]
事前学習された視覚言語(VL)モデルでは、微調整なしでゼロショットのオープン語彙オブジェクトローカライゼーションが可能であることを示す。
本稿では,CLIPSurgeryが自己注意経路に導入した価値価値注意の考え方を一般化するグラウンドング・エコノミクス・モジュール(GEM)を提案する。
セマンティックセグメンテーションのための様々なベンチマークタスクとデータセットに基づいて提案したGEMフレームワークを評価する。
論文 参考訳(メタデータ) (2023-12-01T19:06:12Z) - Segment Any Anomaly without Training via Hybrid Prompt Regularization [15.38935129648466]
ハイブリットプロンプト正規化を伴うゼロショット異常セグメンテーションのための新しいフレームワーク、すなわちセグメンツ・アノマリー+(SAA+)を提案する。
提案したSAA+モデルは,VasA,MVTec-AD,MTD,KSDD2など,いくつかの異常セグメンテーションベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-05-18T05:52:06Z) - Improving Data-Efficient Fossil Segmentation via Model Editing [4.683612295430956]
少ないラベル付き画像で化石セグメンテーションを改善するための2つのパラダイムを提案する。
我々は,Mask R-CNNが化石の異なる分類を区別できないことを明らかにするために,ドメインインフォームの画像摂動を適用した。
我々は,画像分類における体系的な誤りを,ラベル付き追加データを必要としない画像分割に補正する既存のモデル編集手法を拡張した。
論文 参考訳(メタデータ) (2022-10-08T02:12:38Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。