論文の概要: Bounding Box-Free Instance Segmentation Using Semi-Supervised Learning
for Generating a City-Scale Vehicle Dataset
- arxiv url: http://arxiv.org/abs/2111.12122v1
- Date: Tue, 23 Nov 2021 19:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 15:03:58.343197
- Title: Bounding Box-Free Instance Segmentation Using Semi-Supervised Learning
for Generating a City-Scale Vehicle Dataset
- Title(参考訳): 都市規模車両データ生成のための半教師付き学習を用いたボックスフリーインスタンスセグメンテーション
- Authors: Osmar Luiz Ferreira de Carvalho, Osmar Ab\'ilio de Carvalho J\'unior,
Anesmar Olino de Albuquerque, Nickolas Castro Santana, Dibio Leandro Borges,
Roberto Arnaldo Trancoso Gomes, Renato Fontes Guimar\~aes
- Abstract要約: 車両分類は熱いコンピュータビジョンのトピックであり、地上画像からトップ画像まで幅広い研究が行われている。
本稿では,GISソフトウェアを用いた半教師付き反復学習手法を提案する。
その結果,Mask-RCNN(IoUでは82%,IoUでは67%)と比較してピクセル単位の計測精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle classification is a hot computer vision topic, with studies ranging
from ground-view up to top-view imagery. In remote sensing, the usage of
top-view images allows for understanding city patterns, vehicle concentration,
traffic management, and others. However, there are some difficulties when
aiming for pixel-wise classification: (a) most vehicle classification studies
use object detection methods, and most publicly available datasets are designed
for this task, (b) creating instance segmentation datasets is laborious, and
(c) traditional instance segmentation methods underperform on this task since
the objects are small. Thus, the present research objectives are: (1) propose a
novel semi-supervised iterative learning approach using GIS software, (2)
propose a box-free instance segmentation approach, and (3) provide a city-scale
vehicle dataset. The iterative learning procedure considered: (1) label a small
number of vehicles, (2) train on those samples, (3) use the model to classify
the entire image, (4) convert the image prediction into a polygon shapefile,
(5) correct some areas with errors and include them in the training data, and
(6) repeat until results are satisfactory. To separate instances, we considered
vehicle interior and vehicle borders, and the DL model was the U-net with the
Efficient-net-B7 backbone. When removing the borders, the vehicle interior
becomes isolated, allowing for unique object identification. To recover the
deleted 1-pixel borders, we proposed a simple method to expand each prediction.
The results show better pixel-wise metrics when compared to the Mask-RCNN (82%
against 67% in IoU). On per-object analysis, the overall accuracy, precision,
and recall were greater than 90%. This pipeline applies to any remote sensing
target, being very efficient for segmentation and generating datasets.
- Abstract(参考訳): 車両分類は熱いコンピュータビジョンのトピックであり、地上画像からトップ画像まで幅広い研究が行われている。
リモートセンシングでは、トップビュー画像を使用することで、都市パターン、車両濃度、交通管理などを理解することができる。
しかし、画素単位の分類にはいくつかの困難がある。
(a)ほとんどの車両分類研究はオブジェクト検出手法を用いており、最も一般に公開されているデータセットはこのタスクのために設計されている。
(b)インスタンスセグメンテーションデータセットの作成は手間がかかり、
(c) オブジェクトが小さいため、従来のインスタンスセグメンテーションメソッドは、このタスクではパフォーマンスが悪い。
本研究の目的は,(1)GISソフトウェアを用いた新しい半教師付き反復学習手法の提案,(2)箱なしインスタンス分割手法の提案,(3)都市規模の車両データセットの提供である。
1) 少数の車両にラベルを付け, (2) サンプルを訓練し, (3) モデルを用いて画像全体を分類する, (4) 画像予測をポリゴン形状ファイルに変換する, (5) 誤りのある領域を訂正してトレーニングデータに含める, (6) 結果が満足できるまで繰り返す。
例として,車内境界と車内境界を検討した。DLモデルは,効率の良いネットワークB7バックボーンを備えたU-netであった。
境界を取り除く際、車両内部は孤立し、ユニークな物体識別が可能となる。
削除された1ピクセル境界を復元するために,各予測を簡易に拡張する方法を提案した。
その結果,Mask-RCNN(IoUでは82%,IoUでは67%)と比較すると,ピクセル単位の指標が良好であった。
対象ごとの分析では,全体の精度,精度,リコール率は90%以上であった。
このパイプラインは任意のリモートセンシングターゲットに適用され、データセットのセグメンテーションと生成に非常に効率的である。
関連論文リスト
- Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Self-supervised Learning of 3D Object Understanding by Data Association
and Landmark Estimation for Image Sequence [15.815583594196488]
2D画像から下降する3Dオブジェクトは、減次元情報から副次元を推測する挑戦的なタスクです。
3Dアノテーションの達成は高価かつ時間を要するため、大量の3Dデータセットを得ることは困難である。
本研究では, 自己性能を克服するために, 画像シーケンス内の物体の多重観測を利用する戦略を提案する。
論文 参考訳(メタデータ) (2021-04-14T18:59:08Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Learning Collision-Free Space Detection from Stereo Images: Homography
Matrix Brings Better Data Augmentation [16.99302954185652]
少数のトレーニングサンプルを使用して、深い畳み込みニューラルネットワーク(DCNN)を訓練することは、依然としてオープンな課題です。
本稿では,dcnnの性能向上に有効なトレーニングデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2020-12-14T19:14:35Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。