論文の概要: INSTA-YOLO: Real-Time Instance Segmentation
- arxiv url: http://arxiv.org/abs/2102.06777v1
- Date: Fri, 12 Feb 2021 21:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:03:04.206164
- Title: INSTA-YOLO: Real-Time Instance Segmentation
- Title(参考訳): INSTA-YOLO:リアルタイムインスタンスセグメンテーション
- Authors: Eslam Mohamed, Abdelrahman Shaker, Hazem Rashed, Ahmad El-Sallab,
Mayada Hadhoud
- Abstract要約: Insta-YOLOは,リアルタイムインスタンス分割のための一段階のエンドツーエンドディープラーニングモデルである。
ピクセル単位で予測する代わりに、モデルはデカルト空間の2dポイントで表されるオブジェクトの輪郭としてインスタンスを予測する。
当社のモデルは,Carvana,Cityscapes,Airbusの3つのデータセットで評価する。
- 参考スコア(独自算出の注目度): 2.9769485817170387
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Instance segmentation has gained recently huge attention in various computer
vision applications. It aims at providing different IDs to different objects of
the scene, even if they belong to the same class. Instance segmentation is
usually performed as a two-stage pipeline. First, an object is detected, then
semantic segmentation within the detected box area is performed which involves
costly up-sampling. In this paper, we propose Insta-YOLO, a novel one-stage
end-to-end deep learning model for real-time instance segmentation. Instead of
pixel-wise prediction, our model predicts instances as object contours
represented by 2D points in Cartesian space. We evaluate our model on three
datasets, namely, Carvana,Cityscapes and Airbus. We compare our results to the
state-of-the-art models for instance segmentation. The results show our model
achieves competitive accuracy in terms of mAP at twice the speed on GTX-1080
GPU.
- Abstract(参考訳): インスタンスセグメンテーションは、さまざまなコンピュータビジョンアプリケーションで最近大きな注目を集めています。
同じクラスに属する場合でも、シーンのさまざまなオブジェクトに異なるIDを提供することを目指しています。
インスタンスセグメンテーションは通常、2段階のパイプラインとして実行される。
まず、オブジェクトを検出し、検出されたボックス領域内のセマンティックセグメンテーションを行い、コストのかかるアップサンプリングを行う。
本稿では,リアルタイムインスタンス分割のための一段階のエンドツーエンドディープラーニングモデルであるInsta-YOLOを提案する。
ピクセル単位で予測する代わりに、モデルはデカルト空間の2dポイントで表されるオブジェクトの輪郭としてインスタンスを予測する。
当社のモデルは,Carvana,Cityscapes,Airbusの3つのデータセットで評価する。
結果は、例のセグメンテーションの最先端モデルと比較します。
その結果,GTX-1080 GPUの2倍の速度でmAPの競合精度が得られた。
関連論文リスト
- Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Learning to Associate Every Segment for Video Panoptic Segmentation [123.03617367709303]
粗いセグメントレベルのマッチングと細かなピクセルレベルのマッチングを同時に学習する。
本研究では,Cityscapes-VPSおよびVIPERデータセット上で,フレーム単位の計算モデルにより,最先端の計算結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-17T13:06:24Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Vec2Instance: Parameterization for Deep Instance Segmentation [0.17205106391379021]
我々は、Vec2Instanceと呼ばれる新しい深層畳み込みニューラルネットワークアーキテクチャをインスタンスセグメンテーションで記述する。
Vec2Instanceはインスタンスのパラメトリゼーションのためのフレームワークを提供しており、畳み込みニューラルネットワークは、セントロイド周辺のインスタンスの複雑な形状を効率的に推定することができる。
アプローチのピクセル単位の精度は89%で,最先端のMask RCNN (91%) の精度に近い。
論文 参考訳(メタデータ) (2020-10-06T13:51:02Z) - Monocular Instance Motion Segmentation for Autonomous Driving: KITTI
InstanceMotSeg Dataset and Multi-task Baseline [5.000331633798637]
オブジェクトのセグメンテーションは、クラス非依存の方法でオブジェクトをセグメンテーションするために使用できるため、自動運転車にとって重要なタスクである。
自律走行の文献ではピクセル単位の運動セグメンテーションが研究されているが、インスタンスレベルではめったに研究されていない。
我々は、KITTIMoSegデータセットを改善した12.9Kサンプルからなる新しいInstanceMotSegデータセットを作成します。
論文 参考訳(メタデータ) (2020-08-16T21:47:09Z) - OccuSeg: Occupancy-aware 3D Instance Segmentation [39.71517989569514]
3D占有サイズ」とは、各インスタンスが占有するボクセルの数である。
OccuSegは、3Dインスタンスのセグメンテーションスキームである。
3つの実世界のデータセット上での“最先端のパフォーマンス”。
論文 参考訳(メタデータ) (2020-03-14T02:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。