論文の概要: Generalized Mask-aware IoU for Anchor Assignment for Real-time Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2312.17031v1
- Date: Thu, 28 Dec 2023 14:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 16:13:09.320274
- Title: Generalized Mask-aware IoU for Anchor Assignment for Real-time Instance
Segmentation
- Title(参考訳): リアルタイムインスタンス分割のためのアンカー割り当てのための一般化マスク対応IoU
- Authors: Bar{\i}\c{s} Can \c{C}am, Kemal \"Oks\"uz, Fehmi Kahraman, Zeynep
Sonat Baltac{\i}, Sinan Kalkan, Emre Akba\c{s}
- Abstract要約: 一般化マスク対応インターセクション・オーバー・ユニオン(GmaIoU)
GmaIoUは、インスタンスセグメンテーション法のトレーニング中にアンカーボックスを正負に割り当てる新しい尺度である。
- 参考スコア(独自算出の注目度): 12.649297318541587
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces Generalized Mask-aware Intersection-over-Union (GmaIoU)
as a new measure for positive-negative assignment of anchor boxes during
training of instance segmentation methods. Unlike conventional IoU measure or
its variants, which only consider the proximity of anchor and ground-truth
boxes; GmaIoU additionally takes into account the segmentation mask. This
enables GmaIoU to provide more accurate supervision during training. We
demonstrate the effectiveness of GmaIoU by replacing IoU with our GmaIoU in
ATSS, a state-of-the-art (SOTA) assigner. Then, we train YOLACT, a real-time
instance segmentation method, using our GmaIoU-based ATSS assigner. The
resulting YOLACT based on the GmaIoU assigner outperforms (i) ATSS with IoU by
$\sim 1.0-1.5$ mask AP, (ii) YOLACT with a fixed IoU threshold assigner by
$\sim 1.5-2$ mask AP over different image sizes and (iii) decreases the
inference time by $25 \%$ owing to using less anchors. Taking advantage of this
efficiency, we further devise GmaYOLACT, a faster and $+7$ mask AP points more
accurate detector than YOLACT. Our best model achieves $38.7$ mask AP at $26$
fps on COCO test-dev establishing a new state-of-the-art for real-time instance
segmentation.
- Abstract(参考訳): 本稿では,インスタンスセグメンテーション法のトレーニング中に,アンカーボックスの正負の割り当てを行うための新しい尺度として,一般化マスク対応インターセクション・オーバー・ユニオン(GmaIoU)を提案する。
従来のIoU測度やその変種とは異なり、アンカーとグランドトラスボックスの近接しか考慮していないが、GmaIoUはセグメンテーションマスクも考慮している。
これにより、GmaIoUはトレーニング中により正確な監視を行うことができる。
我々は,最新のSOTAアサインラであるATSSにおいて,GmaIoUをGmaIoUに置き換えることで,GmaIoUの有効性を示す。
そして、GmaIoUベースのATSSアサインラを用いてリアルタイムインスタンスセグメンテーション手法であるYOLACTを訓練する。
GmaIoU assigner による YOLACT の結果のパフォーマンス
(i)iouとのatsは$\sim 1.0-1.5$ mask apである。
(ii)固定iouしきい値アサイン付きyolactは、異なる画像サイズと異なるサイズで$\sim 1.5-2$ mask apである。
(iii)アンカーを少なくすることで、推論時間を25ドル$%減少させる。
この効率を生かして、yolactよりも高速で7ドルのマスクapポイントを精度良く検出するgmayolactをさらに考案する。
われわれのベストモデルは、COCO test-devで38.7ドルのマスクAPを26ドルfpsで達成し、リアルタイムインスタンスセグメンテーションのための新しい最先端技術を確立する。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Mixed Autoencoder for Self-supervised Visual Representation Learning [95.98114940999653]
Masked Autoencoder (MAE) は、画像パッチと再構成をランダムにマスキングすることで、様々な視覚タスクにおいて優れた性能を示す。
本稿では,MAEのミキシング強化について検討する。
論文 参考訳(メタデータ) (2023-03-30T05:19:43Z) - Polite Teacher: Semi-Supervised Instance Segmentation with Mutual
Learning and Pseudo-Label Thresholding [0.7282230325785884]
本稿では,半教師付きインスタンスセグメンテーションのタスクに対して,シンプルかつ効果的な方法であるPolite Teacherを提案する。
提案したアーキテクチャは、Teacher-Student相互学習フレームワークに依存している。
ノイズの多い擬似ラベルを除去するために,マスクのバウンディングボックスとマスクスコアリングに信頼しきい値を用いた。
論文 参考訳(メタデータ) (2022-11-07T20:35:51Z) - Mask-aware IoU for Anchor Assignment in Real-time Instance Segmentation [17.622567147585208]
mask-aware Intersection-over-Union (maIoU) インスタンスセグメンテーションメソッドのトレーニング中に、アンカーボックスを正と負のものとして割り当てる。
我々は,maIoUによるIoU操作を置換し,SOTAリアルタイムインスタンスセグメンテーションであるYOLACTを訓練することにより,最先端のSOTAアサインラであるATSSにmaIoUの有効性を示す。
論文 参考訳(メタデータ) (2021-10-19T05:06:53Z) - PFENet++: Boosting Few-shot Semantic Segmentation with the
Noise-filtered Context-aware Prior Mask [62.37727055343632]
「Few-Shot」のためのガイド機能強化ネットワークで提案された以前のマスクガイダンスを再考する。
本稿では,クエリ画像中のオブジェクトの配置を改善するために,近隣のセマンティックキューを活用するコンテキスト対応プリエントマスク(CAPM)を提案する。
我々は、不要な応答をスクリーニングするために、軽量ノイズ抑圧モジュール(NSM)を組み込むことにより、さらに一歩前進する。
論文 参考訳(メタデータ) (2021-09-28T15:07:43Z) - BoxInst: High-Performance Instance Segmentation with Box Annotations [102.10713189544947]
本稿では,トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
私たちの中核となる考え方は、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの喪失を活用することです。
論文 参考訳(メタデータ) (2020-12-03T22:27:55Z) - SOLOv2: Dynamic and Fast Instance Segmentation [102.15325936477362]
パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークを構築しています。
オブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
簡単な直接インスタンス分割システムを示し,高速化と精度の両面において,いくつかの最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-23T09:44:21Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。