論文の概要: Meticulous Object Segmentation
- arxiv url: http://arxiv.org/abs/2012.07181v1
- Date: Sun, 13 Dec 2020 23:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:41:54.505619
- Title: Meticulous Object Segmentation
- Title(参考訳): メチキュラスなオブジェクトセグメンテーション
- Authors: Chenglin Yang, Yilin Wang, Jianming Zhang, He Zhang, Zhe Lin, Alan
Yuille
- Abstract要約: Meticulous Object segmentation (MOS) というタスクを提案し,検討する。
MeticulousNetは専用のデコーダを使用してオブジェクト境界の詳細をキャプチャする。
我々は,MeticulousNetが画素精度のセグメンテーション境界を明確化できることを示す実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 37.48446050876045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with common image segmentation tasks targeted at low-resolution
images, higher resolution detailed image segmentation receives much less
attention. In this paper, we propose and study a task named Meticulous Object
Segmentation (MOS), which is focused on segmenting well-defined foreground
objects with elaborate shapes in high resolution images (e.g. 2k - 4k). To this
end, we propose the MeticulousNet which leverages a dedicated decoder to
capture the object boundary details. Specifically, we design a Hierarchical
Point-wise Refining (HierPR) block to better delineate object boundaries, and
reformulate the decoding process as a recursive coarse to fine refinement of
the object mask. To evaluate segmentation quality near object boundaries, we
propose the Meticulosity Quality (MQ) score considering both the mask coverage
and boundary precision. In addition, we collect a MOS benchmark dataset
including 600 high quality images with complex objects. We provide
comprehensive empirical evidence showing that MeticulousNet can reveal
pixel-accurate segmentation boundaries and is superior to state-of-the-art
methods for high resolution object segmentation tasks.
- Abstract(参考訳): 低解像度画像を対象とした一般的な画像分割タスクと比較すると、高分解能の詳細な画像分割は注意を引かない。
本稿では,高解像度画像に精巧な形状を持つ,よく定義された前景オブジェクトのセグメンテーションに着目した,Meticulous Object Segmentation (MOS) というタスクを提案し,検討する。
2k - 4k)。
この目的のために,専用デコーダを利用してオブジェクト境界の詳細をキャプチャするMeticulousNetを提案する。
具体的には,オブジェクト境界をより明確に定義するために階層的ポイントワイズ・リファインディング(hierpr)ブロックを設計し,デコードプロセスを再帰的な粗いオブジェクトマスクの微細化として再構成する。
オブジェクト境界付近のセグメンテーション品質を評価するために,マスクカバレッジと境界精度の両方を考慮したmeticulosity quality (mq)スコアを提案する。
さらに、複雑なオブジェクトを持つ600の高品質画像を含むMOSベンチマークデータセットを収集する。
我々は,MeticulousNetが画素精度の高いセグメンテーション境界を明らかにし,高分解能オブジェクトセグメンテーションタスクの最先端手法よりも優れていることを示す総合的な実証的証拠を提供する。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Referring Camouflaged Object Detection [97.90911862979355]
Ref-COD は、特定のカモフラージュされたオブジェクトを、サルエントターゲットオブジェクトによる参照画像の小さなセットに基づいて分割することを目的としている。
R2C7Kと呼ばれる大規模なデータセットは、実世界のシナリオで64のオブジェクトカテゴリをカバーする7Kイメージで構成されています。
論文 参考訳(メタデータ) (2023-06-13T04:15:37Z) - High-Quality Entity Segmentation [110.55724145851725]
CropFormerは高解像度画像におけるインスタンスレベルのセグメンテーションの難易度に対処するために設計されている。
よりきめ細かい画像とフルイメージを提供する高解像度の画像作物を融合することで、マスク予測を改善する。
CropFormerでは、難易度の高いエンティティセグメンテーションタスクで1.9ドルという大きなAP利益を達成しています。
論文 参考訳(メタデータ) (2022-11-10T18:58:22Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Superpixel-based Refinement for Object Proposal Generation [3.1981440103815717]
最新のオブジェクトプロポーザルシステムAttentionMask上に、新しいスーパーピクセルベースの改良アプローチを導入します。
実験の結果,AttentionMaskに比べて平均リコール率26.4%の改善が見られた。
論文 参考訳(メタデータ) (2021-01-12T16:06:48Z) - AinnoSeg: Panoramic Segmentation with High Perfomance [4.867465475957119]
現在のパノラマセグメンテーションアルゴリズムは文脈意味論に関係しているが、画像の詳細は十分に処理されていない。
これらの課題に対処するために,本稿ではいくつかの有用なトリックを提案する。
AinnoSegと名付けられたこれらの操作はすべて、よく知られたデータセットADE20Kで最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-07-21T04:16:46Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - A Multi-Level Approach to Waste Object Segmentation [10.20384144853726]
カラー画像とオプションの深度画像から廃棄物を局所化する問題に対処する。
本手法は,複数の空間的粒度レベルでの強度と深度情報を統合する。
我々は, この領域における今後の研究を促進するために, 新たなRGBD廃棄物分節MJU-Wasteを作成している。
論文 参考訳(メタデータ) (2020-07-08T16:49:25Z) - Revisiting Sequence-to-Sequence Video Object Segmentation with
Multi-Task Loss and Skip-Memory [4.343892430915579]
ビデオオブジェクト(VOS)は、視覚領域の活発な研究領域である。
現行のアプローチでは、特にオブジェクトが小さく、あるいは一時的に隠された場合、長いシーケンスでオブジェクトを失う。
我々は,エンコーダ・デコーダアーキテクチャとメモリモジュールを組み合わせたシーケンス・ツー・シーケンス・アプローチを構築し,シーケンシャルデータを活用する。
論文 参考訳(メタデータ) (2020-04-25T15:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。