論文の概要: Boundary-preserving Mask R-CNN
- arxiv url: http://arxiv.org/abs/2007.08921v1
- Date: Fri, 17 Jul 2020 11:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:16:33.399967
- Title: Boundary-preserving Mask R-CNN
- Title(参考訳): 境界保存マスクR-CNN
- Authors: Tianheng Cheng and Xinggang Wang and Lichao Huang and Wenyu Liu
- Abstract要約: マスクの局所化精度を向上させるため,概念的にシンプルで効果的なMask R-CNN(BMask R-CNN)を提案する。
BMask R-CNNは、オブジェクト境界とマスクが特徴融合ブロックを介して相互に学習される境界保存マスクヘッドを含む。
ベルとホイッスルがなければ、BMask R-CNNはCOCOデータセットに対してかなりの差でMask R-CNNを上回っている。
- 参考スコア(独自算出の注目度): 38.15409855290749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tremendous efforts have been made to improve mask localization accuracy in
instance segmentation. Modern instance segmentation methods relying on fully
convolutional networks perform pixel-wise classification, which ignores object
boundaries and shapes, leading coarse and indistinct mask prediction results
and imprecise localization. To remedy these problems, we propose a conceptually
simple yet effective Boundary-preserving Mask R-CNN (BMask R-CNN) to leverage
object boundary information to improve mask localization accuracy. BMask R-CNN
contains a boundary-preserving mask head in which object boundary and mask are
mutually learned via feature fusion blocks. As a result, the predicted masks
are better aligned with object boundaries. Without bells and whistles, BMask
R-CNN outperforms Mask R-CNN by a considerable margin on the COCO dataset; in
the Cityscapes dataset, there are more accurate boundary groundtruths
available, so that BMask R-CNN obtains remarkable improvements over Mask R-CNN.
Besides, it is not surprising to observe that BMask R-CNN obtains more obvious
improvement when the evaluation criterion requires better localization (e.g.,
AP$_{75}$) as shown in Fig.1. Code and models are available at
\url{https://github.com/hustvl/BMaskR-CNN}.
- Abstract(参考訳): 例のセグメンテーションにおいてマスクのローカライズ精度を向上させるための多大な努力がなされている。
完全な畳み込みネットワークに依存する現代的なインスタンスセグメンテーション手法は、オブジェクトの境界や形状を無視するピクセル単位の分類を実行し、粗いマスク予測結果と不明瞭なローカライゼーションを導く。
これらの問題を解決するため,マスクの局所化精度を向上させるためにオブジェクト境界情報を活用するため,概念的にシンプルで効果的なMask R-CNN(BMask R-CNN)を提案する。
BMask R-CNNは、オブジェクト境界とマスクが特徴融合ブロックを介して相互に学習される境界保存マスクヘッドを含む。
その結果、予測されたマスクはオブジェクト境界に合致する。
ベルとホイッスルがなければ、BMask R-CNNはCOCOデータセットのかなりのマージンでMask R-CNNを上回っ、Cityscapesデータセットでは、より正確な境界基盤が利用できるため、BMask R-CNNはMask R-CNNよりも顕著に改善されている。
さらに、BMask R-CNNが、図1に示すように、評価基準がより良いローカライゼーション(AP$_{75}$)を必要とする場合、より明らかな改善が得られることは、驚くにあたらない。
コードとモデルは \url{https://github.com/hustvl/BMaskR-CNN} で公開されている。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - SODAR: Segmenting Objects by DynamicallyAggregating Neighboring Mask
Representations [90.8752454643737]
最近の最先端のワンステージインスタンスセグメンテーションモデルSOLOは、入力画像をグリッドに分割し、完全な畳み込みネットワークを備えたグリッドセルオブジェクトマスクを直接予測する。
我々は,SOLOが近傍の格子セルの物体に対して類似したマスクを生成するのを観察する。
観測されたギャップによってモチベーションを得た学習ベースのアグリゲーション手法を開発し,そのリッチな隣り合う情報を活用してSOLOを改善する。
論文 参考訳(メタデータ) (2022-02-15T13:53:03Z) - supervised adptive threshold network for instance segmentation [4.347876036795798]
適応しきい値に基づくマスクR-CNN法
層状適応ネットワーク構造
アダプティブ・フィーチャー・プール
ベンチマークデータセットの実験から,提案モデルの有効性が示唆された。
論文 参考訳(メタデータ) (2021-06-07T09:25:44Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - Attribution Mask: Filtering Out Irrelevant Features By Recursively
Focusing Attention on Inputs of DNNs [13.960152426268769]
属性法は、入力特徴の重要な部分を強調することで、ディープニューラルネットワーク(DNN)の予測を視覚的に説明する属性を計算する。
本研究では,入力特徴の無関係部分をフィルタリングする属性を用いて,事前学習したDNNの分類精度を測定し,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-02-15T04:12:04Z) - LevelSet R-CNN: A Deep Variational Method for Instance Segmentation [79.20048372891935]
現在、多くのアートモデルはMask R-CNNフレームワークに基づいている。
本稿では,両世界の長所を結合したR-CNNを提案する。
我々はCOCOおよびCityscapesデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-07-30T17:52:18Z) - FibeR-CNN: Expanding Mask R-CNN to Improve Image-Based Fiber Analysis [0.0]
本稿では,繊維のイメージベース解析を自動化するために,領域ベース畳み込みニューラルネットワーク(R-CNN)を提案する。
FibeR-CNNは、繊維画像の新たなテストデータセットにおいて、Mask R-CNNの平均精度を33%上回ることができる。
論文 参考訳(メタデータ) (2020-06-08T13:03:09Z) - Fully Convolutional Networks for Automatically Generating Image Masks to
Train Mask R-CNN [4.901462756978097]
Mask R-CNN法は、これまでオブジェクト検出の最良の結果を達成するが、トレーニングのためにMaskを入手するには非常に時間がかかり、手間がかかる。
本稿では,最新のMask R-CNN深層学習のための画像マスク自動生成手法を提案する。
提案手法は,Mask R-CNNを訓練するために自動的に画像マスクを得ることができ,セグメント化における平均精度(mAP)の90%以上の精度で非常に高い分類精度を得ることができる。
論文 参考訳(メタデータ) (2020-03-03T08:09:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。