論文の概要: Utilising Visual Attention Cues for Vehicle Detection and Tracking
- arxiv url: http://arxiv.org/abs/2008.00106v1
- Date: Fri, 31 Jul 2020 23:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:46:52.334543
- Title: Utilising Visual Attention Cues for Vehicle Detection and Tracking
- Title(参考訳): 車両検出・追跡のための視覚注意手がかりの活用
- Authors: Feiyan Hu, Venkatesh G M, Noel E. O'Connor, Alan F. Smeaton and
Suzanne Little
- Abstract要約: 物体の検出と追跡に視覚的注意(透明性)を用いる可能性を探究する。
本稿では,物体を同時に検出し,対象性と主観性マップを生成し,計算力を節約するニューラルネットワークを提案する。
実験はKITTIとDETRACのデータセットを用いて行われた。
- 参考スコア(独自算出の注目度): 13.2351348789193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advanced Driver-Assistance Systems (ADAS) have been attracting attention from
many researchers. Vision-based sensors are the closest way to emulate human
driver visual behavior while driving. In this paper, we explore possible ways
to use visual attention (saliency) for object detection and tracking. We
investigate: 1) How a visual attention map such as a \emph{subjectness}
attention or saliency map and an \emph{objectness} attention map can facilitate
region proposal generation in a 2-stage object detector; 2) How a visual
attention map can be used for tracking multiple objects. We propose a neural
network that can simultaneously detect objects as and generate objectness and
subjectness maps to save computational power. We further exploit the visual
attention map during tracking using a sequential Monte Carlo probability
hypothesis density (PHD) filter. The experiments are conducted on KITTI and
DETRAC datasets. The use of visual attention and hierarchical features has
shown a considerable improvement of $\approx$8\% in object detection which
effectively increased tracking performance by $\approx$4\% on KITTI dataset.
- Abstract(参考訳): Advanced Driver-Assistance Systems (ADAS)は多くの研究者から注目を集めている。
視覚ベースのセンサーは、運転中に人間の視覚行動をエミュレートする最も近い方法だ。
本稿では,物体検出と追跡に視覚的注意(saliency)を利用する方法について検討する。
調査します
1) 2段階物体検出装置において,<emph{subjectness} 注目度マップや,<emph{objectness} 注目度マップなどの視覚的注意度マップが,領域提案生成を容易にするか。
2)複数の物体の追跡に視覚的注意マップをどのように利用できるか。
本稿では,物体を同時に検出し,対象性と主観性マップを生成し,計算力を節約するニューラルネットワークを提案する。
さらに,逐次モンテカルロ確率仮説密度(phd)フィルタを用いて追跡中に視覚注意マップを活用した。
実験はKITTIとDETRACのデータセットを用いて行われた。
視覚的注意と階層的特徴の使用により、オブジェクト検出における$\approx$8\%が大幅に改善され、KITTIデータセット上で$\approx$4\%のトラッキング性能が向上した。
関連論文リスト
- OAT: Object-Level Attention Transformer for Gaze Scanpath Prediction [0.2796197251957245]
本稿では,OAT(Object-level Attention Transformer)を紹介する。
OATは人間のスキャンパスを予測し、散らかった邪魔者のシーンで対象物を検索する。
我々は、Amazonの書籍カバーデータセットと、収集したビジュアル検索のための新しいデータセットに基づいて、OATを評価した。
論文 参考訳(メタデータ) (2024-07-18T09:33:17Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Track without Appearance: Learn Box and Tracklet Embedding with Local
and Global Motion Patterns for Vehicle Tracking [45.524183249765244]
車両追跡は多目的追跡(MOT)分野において重要な課題である。
本稿では,外見情報のない車両追跡における動作パターンの重要性について検討する。
本稿では, 長期追跡のための関連課題を, 排他的かつ完全な運動情報を用いて解決する手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T02:27:09Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - SpotNet: Self-Attention Multi-Task Network for Object Detection [11.444576186559487]
我々は,背景サブトラクションや光フローを用いて,半教師付き方式で前景/後景セグメンテーションラベルを作成する。
ネットワーク内のセグメンテーションマップを自己認識機構として使用して,境界ボックスの生成に使用する特徴マップを重み付けする。
この手法を用いることで,2つの交通監視データセットにおいて,重要なmAP改善が得られることを示す。
論文 参考訳(メタデータ) (2020-02-13T14:43:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。