論文の概要: The surprising impact of mask-head architecture on novel class
segmentation
- arxiv url: http://arxiv.org/abs/2104.00613v1
- Date: Thu, 1 Apr 2021 16:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:34:20.568452
- Title: The surprising impact of mask-head architecture on novel class
segmentation
- Title(参考訳): マスクヘッドアーキテクチャが新しいクラスセグメンテーションに与える影響
- Authors: Vighnesh Birodkar, Zhichao Lu, Siyang Li, Vivek Rathod, Jonathan Huang
- Abstract要約: マスクヘッドのアーキテクチャは,トレーニング中にマスクを観察しないクラスへの一般化において,驚くほど重要な役割を担っている。
また,マスクヘッドアーキテクチャを選択すれば,従来の文献で提案された特別なモジュールや損失を必要とせずに,部分的に監督されたCOCOベンチマーク上でSOTA結果が得られることを示す。
- 参考スコア(独自算出の注目度): 27.076315496682444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance segmentation models today are very accurate when trained on large
annotated datasets, but collecting mask annotations at scale is prohibitively
expensive. We address the partially supervised instance segmentation problem in
which one can train on (significantly cheaper) bounding boxes for all
categories but use masks only for a subset of categories. In this work, we
focus on a popular family of models which apply differentiable cropping to a
feature map and predict a mask based on the resulting crop. Within this family,
we show that the architecture of the mask-head plays a surprisingly important
role in generalization to classes for which we do not observe masks during
training. While many architectures perform similarly when trained in fully
supervised mode, we show that they often generalize to novel classes in
dramatically different ways. We call this phenomenon the strong mask
generalization effect, which we exploit by replacing the typical mask-head of
2-4 layers with significantly deeper off-the-shelf architectures (e.g. ResNet,
Hourglass models). We also show that the choice of mask-head architecture alone
can lead to SOTA results on the partially supervised COCO benchmark without the
need of specialty modules or losses proposed by prior literature. Finally, we
demonstrate that our effect is general, holding across underlying detection
methodologies, (e.g. both anchor-based or anchor free or no detector at all)
and across different backbone networks. Code and pre-trained models are
available at https://git.io/deepmac.
- Abstract(参考訳): 現在のインスタンスセグメンテーションモデルは、大規模なアノテートデータセットでトレーニングする場合は非常に正確だが、大規模なマスクアノテーションの収集は非常に高価である。
部分教師付きインスタンスセグメンテーションの問題に対処し、すべてのカテゴリに対して(非常に安価で)有界なボックスをトレーニングできるが、マスクはカテゴリのサブセットにのみ使用できる。
本研究では,特徴地図に微分可能な切り分けを適用し,得られた作物に基づいてマスクを予測する,人気のあるモデル群に注目した。
このファミリー内では、トレーニング中にマスクを観察しないクラスへの一般化において、マスクヘッドのアーキテクチャが驚くほど重要な役割を果たすことを示す。
多くのアーキテクチャは、完全に教師付きモードでトレーニングした場合も同様に機能するが、新しいクラスを劇的に異なる方法で一般化することが多い。
この現象を強いマスク一般化効果と呼び、2-4層からなる典型的なマスクヘッドをはるかに深いオフザシェルフアーキテクチャに置き換える(例)。
ResNet, Hourglass Model)。
また,マスクヘッドアーキテクチャを選択すれば,従来の文献で提案された特別なモジュールや損失を必要とせずに,部分的に監督されたCOCOベンチマーク上でSOTA結果が得られることを示す。
最後に、我々の効果が一般的なことを示し、基礎となる検出手法(例)にまたがって保持する。
アンカーベース、アンカーベース、またはアンカーフリー、または全く検出できない)および異なるバックボーンネットワーク。
コードと事前トレーニングされたモデルは、https://git.io/deepmac.orgで入手できる。
関連論文リスト
- MaskUno: Switch-Split Block For Enhancing Instance Segmentation [0.0]
マスク予測を洗練されたROIを処理し、それらを分類し、特定のマスク予測者に割り当てるスイッチスプリットブロックに置き換えることを提案する。
平均平均精度(mAP)が2.03%上昇し,80クラスにおいて高い成績を示した。
論文 参考訳(メタデータ) (2024-07-31T10:12:14Z) - ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Mask-free OVIS: Open-Vocabulary Instance Segmentation without Manual
Mask Annotations [86.47908754383198]
Open-Vocabulary (OV) 法は、大規模な画像キャプチャペアと視覚言語モデルを利用して、新しいカテゴリを学習する。
提案手法は,イメージキャプションペアに存在するオブジェクトに対して,事前学習された視覚言語モデルの局所化能力を活用することで,擬似マスクアノテーションを生成する。
擬似マスクを用いてトレーニングした手法は,MS-COCOデータセットとOpenImagesデータセットのmAPスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-29T17:58:39Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Gait Recognition with Mask-based Regularization [31.901166591272464]
本稿では,ReverseMaskというマスクを用いた新しい正規化手法を提案する。
特徴マップをインジェクトすることにより,提案手法は,畳み込みアーキテクチャが識別表現を学習するのに役立つ。
プラグアンドプレイ インセプションのようなReverseMaskブロックは、ネットワークを一般化するのにシンプルで効果的である。
論文 参考訳(メタデータ) (2022-03-08T12:13:29Z) - Scaling up instance annotation via label propagation [69.8001043244044]
本稿では,オブジェクトセグメンテーションマスクを用いた大規模データセット構築のための高効率アノテーション手法を提案する。
セグメンテーションモデルによるマスク予測に階層的クラスタリングを用いることにより,これらの類似性を生かした。
総アノテーション時間はたった290時間である100万個のオブジェクトセグメンテーションマスクが得られた。
論文 参考訳(メタデータ) (2021-10-05T18:29:34Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Prior to Segment: Foreground Cues for Weakly Annotated Classes in
Partially Supervised Instance Segmentation [3.192503074844774]
部分教師付きインスタンスセグメンテーションは、より豊富な弱いボックスラベルを利用することで、限られたマスクラベルによるマスク予測を改善することを目的としている。
部分教師付きインスタンスセグメンテーションで一般的に使用されるクラス非依存マスクヘッドは,弱アノテーションクラスに対する一般的な前景概念の学習が困難であることを示す。
我々は,すべてのクラスを監督するボックス分類ヘッドによって暗黙的に学習される前景の一般的な概念をマスクヘッドに提供する,OMP(object mask prior)を導入する。
論文 参考訳(メタデータ) (2020-11-23T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。