論文の概要: Learning Stixel-based Instance Segmentation
- arxiv url: http://arxiv.org/abs/2107.03070v1
- Date: Wed, 7 Jul 2021 08:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:05:03.390838
- Title: Learning Stixel-based Instance Segmentation
- Title(参考訳): 学習スタイセルに基づくインスタンスセグメンテーション
- Authors: Monty Santarossa, Lukas Schneider, Claudius Zelenka, Lars Schmarje,
Reinhard Koch, Uwe Franke
- Abstract要約: 我々は,StixelPointNetという高速なインスタンスセグメンテーションをSixels上で直接実行する新しい手法を提案する。
我々は、入力画像から関連する画素を抽出する候補インスタンスを提案するために、バウンディングボックス検出器を用いる。
これらのStixelsでは、PointNetモデルがバイナリセグメンテーションを学習し、最終選択ステップで画像全体を統合する。
- 参考スコア(独自算出の注目度): 3.1888299494195738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stixels have been successfully applied to a wide range of vision tasks in
autonomous driving, recently including instance segmentation. However, due to
their sparse occurrence in the image, until now Stixels seldomly served as
input for Deep Learning algorithms, restricting their utility for such
approaches. In this work we present StixelPointNet, a novel method to perform
fast instance segmentation directly on Stixels. By regarding the Stixel
representation as unstructured data similar to point clouds, architectures like
PointNet are able to learn features from Stixels. We use a bounding box
detector to propose candidate instances, for which the relevant Stixels are
extracted from the input image. On these Stixels, a PointNet models learns
binary segmentations, which we then unify throughout the whole image in a final
selection step. StixelPointNet achieves state-of-the-art performance on
Stixel-level, is considerably faster than pixel-based segmentation methods, and
shows that with our approach the Stixel domain can be introduced to many new 3D
Deep Learning tasks.
- Abstract(参考訳): ピクセルは、最近インスタンスセグメンテーションを含む、自律運転における幅広い視覚タスクにうまく適用されている。
しかし、画像の粗さのため、これまでは、StixelsはDeep Learningアルゴリズムの入力としてほとんど役に立たず、そのようなアプローチの効用を制限していた。
本稿では、stixel上で直接高速インスタンスセグメンテーションを行う新しい方法であるstixelpointnetを提案する。
ポイントクラウドに似た非構造化データとしてのStixel表現に関して、PointNetのようなアーキテクチャは、Stixelsから機能を学ぶことができる。
我々は、入力画像から関連する画素を抽出する候補インスタンスを提案するために、バウンディングボックス検出器を用いる。
これらのスタイセル上では、pointnetモデルがバイナリセグメンテーションを学習し、最終的な選択ステップでイメージ全体を統一します。
StixelPointNetは、Stixelレベルの最先端性能を実現し、ピクセルベースのセグメンテーション手法よりもかなり高速であり、我々のアプローチでは、Stixelドメインが多くの新しい3Dディープラーニングタスクに導入可能であることを示す。
関連論文リスト
- Iterative Next Boundary Detection for Instance Segmentation of Tree
Rings in Microscopy Images of Shrub Cross Sections [58.720142291102135]
反復次境界検出(INBD)と呼ばれる新しい反復法を提案する。
自然成長方向を直感的にモデル化し、低木断面の中心から始まり、各ステップにおける次のリング境界を検出する。
我々の実験では、INBDはジェネリックインスタンスセグメンテーション法よりも優れた性能を示し、時間順の概念を組み込んだ唯一の方法である。
論文 参考訳(メタデータ) (2022-12-06T14:49:41Z) - From colouring-in to pointillism: revisiting semantic segmentation
supervision [48.637031591058175]
本稿では,意味的セグメンテーションアノテーションに対するポジリスト的アプローチを提案する。
Open Imagesデータセットで4,171のクラスに2260万のポイントラベルを収集してリリースしました。
論文 参考訳(メタデータ) (2022-10-25T16:42:03Z) - EISeg: An Efficient Interactive Segmentation Tool based on PaddlePaddle [7.588694189597639]
EISegは,画像分割アノテーションの効率を大幅に改善できるインタラクティブSEGmentationアノテーションツールである。
また、リモートセンシング、医用イメージング、産業品質検査、人間のセグメンテーション、ビデオセグメンテーションのための時間認識モデルなど、さまざまなドメイン固有モデルを提供する。
論文 参考訳(メタデータ) (2022-10-17T07:12:13Z) - Baking in the Feature: Accelerating Volumetric Segmentation by Rendering
Feature Maps [42.34064154798376]
既存の大規模データセットで訓練されたモデルから抽出した特徴を用いてセグメント化性能を向上させることを提案する。
この特徴表現をNeRF(Neural Radiance Field)に、特徴マップを体積的にレンダリングし、各入力画像から抽出した特徴を監督することにより、焼成する。
提案手法は,既存手法よりも意味的アノテーションが少なく,多様な場面で高いセグメンテーション精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-09-26T14:52:10Z) - Point-Unet: A Context-aware Point-based Neural Network for Volumetric
Segmentation [18.81644604997336]
本稿では,3次元点雲による深層学習の効率をボリュームセグメンテーションに組み込む新しい手法であるPoint-Unetを提案する。
私たちのキーとなるアイデアは、まず注意確率マップを学習することで、ボリュームに対する関心領域を予測することです。
異なるメトリクスに関する包括的なベンチマークでは、私たちのコンテキスト認識のPoint-UnetがSOTAのボクセルベースネットワークより優れていることが示されている。
論文 参考訳(メタデータ) (2022-03-16T22:02:08Z) - Video Instance Segmentation by Instance Flow Assembly [23.001856276175506]
箱のない特徴を扱うボトムアップ手法は、フレーム間の正確な空間的相関を提供する。
フレーム間の相関関係をよりよくエンコードするための時間的コンテキスト融合モジュールを備えたフレームワークを提案する。
実験により、提案手法は、挑戦的なYoutube-VISデータセット上で、最先端のオンライン手法(画像レベルの入力を取る)よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-10-20T14:49:28Z) - LatticeNet: Fast Spatio-Temporal Point Cloud Segmentation Using
Permutohedral Lattices [27.048998326468688]
深層畳み込みニューラルネットワーク(CNN)は、画像のセグメンテーションに際し、優れた性能を示している。
本稿では,3次元セマンティックセグメンテーションの新たなアプローチであるLatticeNetを提案する。
本稿では,本手法が最先端性能を実現する複数のデータセット上での3次元セグメント化の結果について述べる。
論文 参考訳(メタデータ) (2021-08-09T10:17:27Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - End-to-End Learning Local Multi-view Descriptors for 3D Point Clouds [67.27510166559563]
3Dポイントクラウドのためのローカルなマルチビュー記述子を学習するためのエンドツーエンドフレームワークを提案する。
本手法は,既存の局所記述子を定量的かつ定性的に上回る。
論文 参考訳(メタデータ) (2020-03-12T15:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。