論文の概要: "Who is Driving around Me?" Unique Vehicle Instance Classification using
Deep Neural Features
- arxiv url: http://arxiv.org/abs/2003.08771v1
- Date: Sat, 29 Feb 2020 13:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 19:58:18.102295
- Title: "Who is Driving around Me?" Unique Vehicle Instance Classification using
Deep Neural Features
- Title(参考訳): 「誰の運転ですか。」
ディープニューラル特徴を用いた車両インスタンス分類
- Authors: Tim Oosterhuis and Lambert Schomaker
- Abstract要約: 本稿では,物体検出CNNの固有特徴マップを用いて,ダッシュカムフィードから車両を識別する方法について述べる。
異なるクラスを区別するために訓練されたディープニューラルネットワークは、同じクラスに属する異なるインスタンスを識別するためにうまく使用することができる。
- 参考スコア(独自算出の注目度): 5.634825161148484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being aware of other traffic is a prerequisite for self-driving cars to
operate in the real world. In this paper, we show how the intrinsic feature
maps of an object detection CNN can be used to uniquely identify vehicles from
a dash-cam feed. Feature maps of a pretrained `YOLO' network are used to create
700 deep integrated feature signatures (DIFS) from 20 different images of 35
vehicles from a high resolution dataset and 340 signatures from 20 different
images of 17 vehicles of a lower resolution tracking benchmark dataset. The
YOLO network was trained to classify general object categories, e.g. classify a
detected object as a `car' or `truck'. 5-Fold nearest neighbor (1NN)
classification was used on DIFS created from feature maps in the middle layers
of the network to correctly identify unique vehicles at a rate of 96.7\% for
the high resolution data and with a rate of 86.8\% for the lower resolution
data. We conclude that a deep neural detection network trained to distinguish
between different classes can be successfully used to identify different
instances belonging to the same class, through the creation of deep integrated
feature signatures (DIFS).
- Abstract(参考訳): 他の交通渋滞に気付くことは、自動運転車が現実世界で動くための前提条件だ。
本稿では,物体検出CNNの固有特徴マップを用いて,ダッシュカムフィードから車両を識別する方法について述べる。
事前訓練された‘YOLO’ネットワークの特徴マップを使用して、高解像度データセットから35台の車両の20の異なる画像から700の深い統合機能シグネチャ(DIFS)、低解像度トラッキングベンチマークデータセットから17台の車両の20の異なる画像から340のシグネチャを生成する。
YOLOネットワークは、検出されたオブジェクトを 'car' または 'truck' に分類するなど、一般的なオブジェクトカテゴリを分類するために訓練された。
ネットワークの中間層の特徴マップから作成したDIFSでは、高解像度データでは96.7\%、低解像度データでは86.8\%の比率でユニークな車両を正しく識別するために、5-Fold Near neighbor (1NN)分類が使用された。
我々は、異なるクラスを区別するために訓練されたディープニューラルネットワークが、ディープ統合特徴シグネチャ(DIFS)の作成を通じて、同一クラスに属する異なるインスタンスを識別するためにうまく使用できると結論付けた。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Detection-segmentation convolutional neural network for autonomous
vehicle perception [0.0]
物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
論文 参考訳(メタデータ) (2023-06-30T08:54:52Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - 3D-DEEP: 3-Dimensional Deep-learning based on elevation patterns forroad
scene interpretation [0.0]
CNNに基づくセマンティックセグメンテーションのための新しいネットアーキテクチャ(3D-DEEP)とそのエンドツーエンドトレーニング手法について述べる。
開発されたモデルは、Cityscapesデータセット上でトレーニングされ、検証された。
一方、KITTIdatasetでは、F1エラー値は97.85%、96.02%に達している。
論文 参考訳(メタデータ) (2020-09-01T10:18:08Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Detecting Unsigned Physical Road Incidents from Driver-View Images [3.840106920708639]
重要なニーズは、破壊的なインシデントを迅速かつ効果的に検出し、伝達することである。
既製のディープニューラルネットワークアーキテクチャに基づくシステムを提案する。
我々は,未署名の身体的事象に対する分類を開発し,関連する事象を整理・分類する手段を提供する。
論文 参考訳(メタデータ) (2020-04-24T16:02:17Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。