論文の概要: PatchDCT: Patch Refinement for High Quality Instance Segmentation
- arxiv url: http://arxiv.org/abs/2302.02693v1
- Date: Mon, 6 Feb 2023 10:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:56:11.009413
- Title: PatchDCT: Patch Refinement for High Quality Instance Segmentation
- Title(参考訳): PatchDCT: 高品質なインスタンスセグメンテーションのためのパッチリファインメント
- Authors: Qinrou Wen, Jirui Yang, Xue Yang, Kewei Liang
- Abstract要約: そこで我々は,DCTベクタからデコードされたマスクを複数のパッチに分割し,設計した分類器と回帰器で各パッチを洗練する,PatchDCTというシンプルで斬新な手法を提案する。
COCO実験の結果,COCO,LVIS,CityscapesのMask-RCNNよりも2.0%,3.2%,4.5%,3.4%,5.3%,7.0%のAP改善が得られた。
- 参考スコア(独自算出の注目度): 5.13112712622471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality instance segmentation has shown emerging importance in computer
vision. Without any refinement, DCT-Mask directly generates high-resolution
masks by compressed vectors. To further refine masks obtained by compressed
vectors, we propose for the first time a compressed vector based multi-stage
refinement framework. However, the vanilla combination does not bring
significant gains, because changes in some elements of the DCT vector will
affect the prediction of the entire mask. Thus, we propose a simple and novel
method named PatchDCT, which separates the mask decoded from a DCT vector into
several patches and refines each patch by the designed classifier and
regressor. Specifically, the classifier is used to distinguish mixed patches
from all patches, and to correct previously mispredicted foreground and
background patches. In contrast, the regressor is used for DCT vector
prediction of mixed patches, further refining the segmentation quality at
boundary locations. Experiments on COCO show that our method achieves 2.0%,
3.2%, 4.5% AP and 3.4%, 5.3%, 7.0% Boundary AP improvements over Mask-RCNN on
COCO, LVIS, and Cityscapes, respectively. It also surpasses DCT-Mask by 0.7%,
1.1%, 1.3% AP and 0.9%, 1.7%, 4.2% Boundary AP on COCO, LVIS and Cityscapes.
Besides, the performance of PatchDCT is also competitive with other
state-of-the-art methods.
- Abstract(参考訳): 高品質なインスタンスセグメンテーションはコンピュータビジョンにおいてますます重要になっている。
改良がなければ、DCT-マスクは圧縮ベクトルによって直接高解像度マスクを生成する。
圧縮ベクトルにより得られたマスクをさらに洗練するために, 圧縮ベクトルを用いた多段微細化フレームワークを初めて提案する。
しかし、DCTベクターのいくつかの要素の変化がマスク全体の予測に影響を及ぼすため、バニラの組み合わせは大きな利益をもたらすことはない。
そこで本研究では,DCTベクタからデコードされたマスクを複数のパッチに分割し,設計した分類器と回帰器によって各パッチを洗練する,PatchDCTというシンプルな手法を提案する。
特に、分類器は、すべてのパッチから混合パッチを区別し、以前に予測されたフォアグラウンドとバックグラウンドパッチを修正するために使用される。
対照的に、この回帰器は混合パッチのDCTベクトル予測に使われ、境界位置のセグメンテーション品質をさらに改善する。
COCOを用いた実験では,COCO,LVIS,CityscapesのMask-RCNNに対して,それぞれ2.0%,3.2%,4.5%AP,3.4%,5.3%,7.0%APの改善が得られた。
また、DCT-Maskを0.7%、.1%、.3%、.9%、.7%、.2%、COCO、LVIS、Cityscapesで上回る。
さらに、PatchDCTの性能は他の最先端の手法と競合する。
関連論文リスト
- SegStitch: Multidimensional Transformer for Robust and Efficient Medical Imaging Segmentation [15.811141677039224]
最先端の手法、特にトランスフォーマーを利用した手法は、3Dセマンティックセグメンテーションにおいて顕著に採用されている。
しかし、局所的な特徴や計算の複雑さが無視されているため、普通の視覚変換器は困難に直面する。
本稿では,SegStitchを提案する。SegStitchは変圧器とODEブロックを結合した革新的なアーキテクチャである。
論文 参考訳(メタデータ) (2024-08-01T12:05:02Z) - Revisiting Image Classifier Training for Improved Certified Robust
Defense against Adversarial Patches [7.90470727433401]
本稿では,2ラウンドのグリーディマスキング戦略 (Greedy Cutout) を提案する。
私たちは、Greedy Cutoutでトレーニングされたモデルが、PatchCleanserのRandom Cutoutよりも、さまざまなデータセットの信頼性を向上できることを示します。
論文 参考訳(メタデータ) (2023-06-22T00:13:44Z) - Out-of-Candidate Rectification for Weakly Supervised Semantic
Segmentation [40.17455241502738]
グループランキングに基づくOCR(Out-of-Candidate Rectification)機構をプラグアンドプレイ方式で開発する。
パスカルVOCとMS COCOの両方のデータセットにおいて、余分なトレーニングオーバーヘッドが無視できるようなパフォーマンス向上が達成できる。
論文 参考訳(メタデータ) (2022-11-22T13:37:34Z) - ConvMAE: Masked Convolution Meets Masked Autoencoders [65.15953258300958]
機能事前トレーニングとマルチスケールハイブリッド畳み込み変換アーキテクチャのためのマスク付き自動エンコーディングは、ViTの可能性をさらに解き放つことができる。
我々のConvMAEフレームワークは、マスクの自動符号化方式により、マルチスケールのハイブリッド畳み込み変換器がより識別的な表現を学習できることを実証している。
事前訓練したConvMAEモデルに基づいて、ConvMAE-Baseは画像Net-1Kの微調整精度をMAE-Baseと比較して1.4%改善する。
論文 参考訳(メタデータ) (2022-05-08T15:12:19Z) - Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - BoxInst: High-Performance Instance Segmentation with Box Annotations [102.10713189544947]
本稿では,トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
私たちの中核となる考え方は、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの喪失を活用することです。
論文 参考訳(メタデータ) (2020-12-03T22:27:55Z) - DCT-Mask: Discrete Cosine Transform Mask Representation for Instance
Segmentation [50.70679435176346]
本稿では、離散コサイン変換(DCT)を用いて、高分解能二元格子マスクをコンパクトなベクトルに符号化することで、新しいマスク表現を提案する。
DCT-Maskと呼ばれるこの手法は、ほとんどのピクセルベースのインスタンスセグメンテーション手法に簡単に統合できる。
論文 参考訳(メタデータ) (2020-11-19T15:00:21Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - ADMP: An Adversarial Double Masks Based Pruning Framework For
Unsupervised Cross-Domain Compression [9.492501599304768]
本研究では,このようなクロスドメイン圧縮のためのADMP(Adversarial Double Masks based Pruning)を提案する。
Office31とImageCLEF-DAデータセットでは、提案されたADMPは、それぞれ0.2%と0.3%の精度で60%のチャンネルをプーンすることができる。
論文 参考訳(メタデータ) (2020-06-07T11:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。