論文の概要: MaX-DeepLab: End-to-End Panoptic Segmentation with Mask Transformers
- arxiv url: http://arxiv.org/abs/2012.00759v2
- Date: Mon, 29 Mar 2021 21:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:44:31.595012
- Title: MaX-DeepLab: End-to-End Panoptic Segmentation with Mask Transformers
- Title(参考訳): max-deeplab:マスクトランスフォーマーによるエンドツーエンドのパンオプティカルセグメンテーション
- Authors: Huiyu Wang, Yukun Zhu, Hartwig Adam, Alan Yuille, Liang-Chieh Chen
- Abstract要約: MaX-DeepLabは、パン光学セグメンテーションのための最初のエンドツーエンドモデルである。
双極子マッチングによって、汎視的品質にインスパイアされた損失を訓練する。
MaX-DeepLabは、ボックスフリーでPQが7.1%上昇している。
- 参考スコア(独自算出の注目度): 27.044062611811267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MaX-DeepLab, the first end-to-end model for panoptic segmentation.
Our approach simplifies the current pipeline that depends heavily on surrogate
sub-tasks and hand-designed components, such as box detection, non-maximum
suppression, thing-stuff merging, etc. Although these sub-tasks are tackled by
area experts, they fail to comprehensively solve the target task. By contrast,
our MaX-DeepLab directly predicts class-labeled masks with a mask transformer,
and is trained with a panoptic quality inspired loss via bipartite matching.
Our mask transformer employs a dual-path architecture that introduces a global
memory path in addition to a CNN path, allowing direct communication with any
CNN layers. As a result, MaX-DeepLab shows a significant 7.1% PQ gain in the
box-free regime on the challenging COCO dataset, closing the gap between
box-based and box-free methods for the first time. A small variant of
MaX-DeepLab improves 3.0% PQ over DETR with similar parameters and M-Adds.
Furthermore, MaX-DeepLab, without test time augmentation, achieves new
state-of-the-art 51.3% PQ on COCO test-dev set.
- Abstract(参考訳): パン光学セグメンテーションのための最初のエンドツーエンドモデルであるMaX-DeepLabを提案する。
当社のアプローチは,サブタスクのサロゲートや,ボックス検出や非最大抑制,モノスタフマージなど,手設計のコンポーネントに大きく依存する現在のパイプラインを単純化する。
これらのサブタスクは、エリアの専門家によって取り組まれているが、ターゲットタスクを包括的に解決することができない。
対照的に、max-deeplabは、マスクトランスフォーマーでクラスラベルのマスクを直接予測し、二部マッチングによってパンオプティカル品質にインスパイアされた損失をトレーニングします。
マスクトランスでは,CNNパスに加えてグローバルメモリパスを導入し,任意のCNNレイヤとの直接通信を可能にするデュアルパスアーキテクチャを採用している。
結果として、MaX-DeepLabは、挑戦的なCOCOデータセット上で、ボックスベースとボックスフリーメソッド間のギャップを初めて埋める、ボックスフリーなレシエーションにおいて、重要な7.1%のPQゲインを示している。
MaX-DeepLabの小さなバージョンでは、同じようなパラメータとM-AddsでDETR上のPQが3.0%向上している。
さらに、MaX-DeepLabはテスト時間を増やすことなく、COCOテストデブセット上で新しい最先端の51.3% PQを達成する。
関連論文リスト
- Hybrid Mask Generation for Infrared Small Target Detection with Single-Point Supervision [18.168923054036682]
SIRST(Single-frame infrared small target)検出は、微小なターゲットを識別する必要があるため、大きな課題となる。
ネットワークトレーニングのためのシングルポイントラベルのみから,ターゲット毎に高品質なマスクを復元するハイブリッドマスク生成手法を提案する。
3つのデータセットにまたがる実験結果から,本手法は単一点監視による赤外線小目標検出法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-06T03:34:44Z) - DFormer: Diffusion-guided Transformer for Universal Image Segmentation [86.73405604947459]
提案したDFormerは,拡散モデルを用いて画像分割タスクをデノナイズプロセスとみなしている。
我々のDFormerは、ランダムに生成されたマスクの集合から、マスクとそれに対応するカテゴリを直接予測します。
我々のDFormerは、最近の拡散型汎光学分割法Pix2Seq-Dより優れており、MS COCO val 2017セットで3.6%向上している。
論文 参考訳(メタデータ) (2023-06-06T06:33:32Z) - Mask DINO: Towards A Unified Transformer-based Framework for Object
Detection and Segmentation [15.826822450977271]
Mask DINOは統合されたオブジェクト検出とセグメンテーションフレームワークである。
Mask DINOはシンプルで、効率的で、スケーラブルで、共同で大規模な検出とセグメンテーションデータセットの恩恵を受けています。
論文 参考訳(メタデータ) (2022-06-06T17:57:25Z) - Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - Box-Adapt: Domain-Adaptive Medical Image Segmentation using Bounding
BoxSupervision [52.45336255472669]
深層学習のための弱教師付きドメイン適応設定を提案する。
Box-Adaptは、ソースドメインのきめ細かいセグナオンマスクとターゲットドメインの弱いバウンディングボックスを完全に探索する。
肝セグメンテーションにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-08-19T01:51:04Z) - RefineMask: Towards High-Quality Instance Segmentation with Fine-Grained
Features [53.71163467683838]
RefineMaskは、オブジェクトやシーンの高品質なインスタンスセグメンテーションのための新しい方法です。
インスタンス毎のセグメンテーションプロセス中に粒度の細かい機能を多段階的に組み込む。
以前のほとんどのメソッドで過剰にスムースされたオブジェクトの曲がった部分のようなハードケースをセグメンテーションすることに成功します。
論文 参考訳(メタデータ) (2021-04-17T15:09:20Z) - BoxInst: High-Performance Instance Segmentation with Box Annotations [102.10713189544947]
本稿では,トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
私たちの中核となる考え方は、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの喪失を活用することです。
論文 参考訳(メタデータ) (2020-12-03T22:27:55Z) - ADMP: An Adversarial Double Masks Based Pruning Framework For
Unsupervised Cross-Domain Compression [9.492501599304768]
本研究では,このようなクロスドメイン圧縮のためのADMP(Adversarial Double Masks based Pruning)を提案する。
Office31とImageCLEF-DAデータセットでは、提案されたADMPは、それぞれ0.2%と0.3%の精度で60%のチャンネルをプーンすることができる。
論文 参考訳(メタデータ) (2020-06-07T11:44:43Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。