論文の概要: EOLO: Embedded Object Segmentation only Look Once
- arxiv url: http://arxiv.org/abs/2004.00123v1
- Date: Tue, 31 Mar 2020 21:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 00:48:03.203030
- Title: EOLO: Embedded Object Segmentation only Look Once
- Title(参考訳): EOLO: 埋め込みオブジェクトセグメンテーションは一度だけ見える
- Authors: Longfei Zeng and Mohammed Sabah
- Abstract要約: 3つの独立したブランチで概念的にシンプルであり、完全に畳み込み可能で、モバイルや組み込みデバイスに簡単に組み込むことができるアンカーフリーでシングルショットのインスタンスセグメンテーション手法を導入する。
EOLOと呼ばれる本手法では,各画素のインスタンス中心分類と4次元距離回帰により,意味的セグメンテーションを予測し,重なり合うオブジェクト問題を区別するものとして,インスタンス分割問題を再構成する。
ベルとホイッスルがなければ、EOLOはIoU50の下で27.7$%のマスクmAPを獲得し、1080Ti GPU上で30FPSに達し、シングルモデルとシングルスケールのトレーニング/テストが可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce an anchor-free and single-shot instance
segmentation method, which is conceptually simple with 3 independent branches,
fully convolutional and can be used by easily embedding it into mobile and
embedded devices.
Our method, refer as EOLO, reformulates the instance segmentation problem as
predicting semantic segmentation and distinguishing overlapping objects
problem, through instance center classification and 4D distance regression on
each pixel. Moreover, we propose one effective loss function to deal with
sampling a high-quality center of gravity examples and optimization for 4D
distance regression, which can significantly improve the mAP performance.
Without any bells and whistles, EOLO achieves 27.7$\%$ in mask mAP under IoU50
and reaches 30 FPS on 1080Ti GPU, with a single-model and single-scale
training/testing on the challenging COCO2017 dataset.
For the first time, we show the different comprehension of instance
segmentation in recent methods, in terms of both up-bottom, down-up, and
direct-predict paradigms. Then we illustrate our model and present related
experiments and results. We hope that the proposed EOLO framework can serve as
a fundamental baseline for a single-shot instance segmentation task in
Real-time Industrial Scenarios.
- Abstract(参考訳): 本稿では,3つの独立したブランチで概念的にシンプルで,完全に畳み込み可能で,モバイルや組み込みデバイスに簡単に組み込むことができるアンカーフリーかつシングルショットのインスタンスセグメンテーション手法を提案する。
本手法は,インスタンスセグメンテーション問題を,各画素のインスタンス中心分類と4次元距離回帰によって,意味的セグメンテーションの予測と重複するオブジェクトの識別として再構成する。
さらに,mAP性能を著しく向上する4次元距離回帰のための高品位重み中心のサンプリングと最適化を行うための効果的な損失関数を提案する。
eoloはiou50でマスクマップを27.7セントで達成し、1080ti gpuで30fpsに達し、挑戦的なcoco2017データセット上でシングルモデルとシングルスケールのトレーニング/テストを行う。
近年の手法では,アップボトム,ダウンアップ,直接予測のパラダイムの両面で,インスタンスセグメンテーションの理解が異なることが初めて示された。
次に、我々のモデルを説明し、関連する実験と結果を示す。
提案するEOLOフレームワークが,リアルタイム産業シナリオにおけるシングルショットインスタンスセグメンテーションタスクの基本的なベースラインとして機能することを期待する。
関連論文リスト
- Single-Stage Open-world Instance Segmentation with Cross-task
Consistency Regularization [33.434628514542375]
オープンワールドのインスタンスセグメンテーションは、イメージからクラスに依存しないインスタンスをセグメントすることを目的としている。
本稿では,各インスタンスのマスクを直接生成する単一ステージフレームワークを提案する。
提案手法は, 完全教師付き設定と半教師付き設定の両方において, 印象的な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-08-18T18:55:09Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - INSTA-YOLO: Real-Time Instance Segmentation [2.726684740197893]
Insta-YOLOは,リアルタイムインスタンス分割のための一段階のエンドツーエンドディープラーニングモデルである。
提案モデルはYOLOワンショットオブジェクト検出器にインスパイアされ,ボックス回帰損失はローカライゼーションヘッドの回帰に置き換わる。
当社のモデルは,Carnva,Cityscapes,Airbusの3つのデータセットで評価する。
論文 参考訳(メタデータ) (2021-02-12T21:17:29Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Objectness-Aware Few-Shot Semantic Segmentation [31.13009111054977]
モデル全体のキャパシティを向上し、パフォーマンスを向上させる方法を示す。
我々は、クラス非依存であり、過度に適合しがちな客観性を導入する。
注釈のないカテゴリの例が1つだけあると、実験により、mIoUに関して、我々の手法が最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-04-06T19:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。