論文の概要: A Dataset for Provident Vehicle Detection at Night
- arxiv url: http://arxiv.org/abs/2105.13236v1
- Date: Thu, 27 May 2021 15:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:07:53.614940
- Title: A Dataset for Provident Vehicle Detection at Night
- Title(参考訳): 夜間の車両検出のためのデータセット
- Authors: Sascha Saralajew and Lars Ohnemus and Lukas Ewecker and Ebubekir Asan
and Simon Isele and Stefan Roos
- Abstract要約: この直感的な人間の行動をコンピュータビジョンアルゴリズムにマッピングし、夜間に来るべき車両を検知する方法の問題点について検討する。
夜間の農村環境における346の異なるシーンのうち,59746の注釈付きグレースケール画像を含む大規模なオープンソースデータセットを提案する。
光反射などの視覚的手がかりを客観的に記述する上で,データセットの特徴と課題について論じる。
- 参考スコア(独自算出の注目度): 3.1969855247377827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In current object detection, algorithms require the object to be directly
visible in order to be detected. As humans, however, we intuitively use visual
cues caused by the respective object to already make assumptions about its
appearance. In the context of driving, such cues can be shadows during the day
and often light reflections at night. In this paper, we study the problem of
how to map this intuitive human behavior to computer vision algorithms to
detect oncoming vehicles at night just from the light reflections they cause by
their headlights. For that, we present an extensive open-source dataset
containing 59746 annotated grayscale images out of 346 different scenes in a
rural environment at night. In these images, all oncoming vehicles, their
corresponding light objects (e.g., headlamps), and their respective light
reflections (e.g., light reflections on guardrails) are labeled. In this
context, we discuss the characteristics of the dataset and the challenges in
objectively describing visual cues such as light reflections. We provide
different metrics for different ways to approach the task and report the
results we achieved using state-of-the-art and custom object detection models
as a first benchmark. With that, we want to bring attention to a new and so far
neglected field in computer vision research, encourage more researchers to
tackle the problem, and thereby further close the gap between human performance
and computer vision systems.
- Abstract(参考訳): 現在のオブジェクト検出では、アルゴリズムは検出するために直接オブジェクトを見えるようにする必要がある。
しかし、人間として、私たちはそれぞれの物体によって引き起こされる視覚的手がかりを直感的に使い、その外観について既に仮定している。
運転の文脈では、そのような手がかりは日中の影であり、夜の光の反射であることが多い。
本稿では,この直感的な人間の行動をコンピュータビジョンアルゴリズムにマッピングして,夜間に出現する車両をヘッドライトによって引き起こされる光反射から検出する方法について議論する。
そこで我々は,夜間の農村環境における346の異なるシーンのうち,59746の注釈付きグレースケール画像を含む大規模なオープンソースデータセットを提案する。
これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。
本稿では,このデータセットの特徴と,光反射などの視覚的手がかりを客観的に記述する上での課題について論じる。
タスクにアプローチするためのさまざまなメトリクスを提供し、最初のベンチマークとして最先端およびカスタムオブジェクト検出モデルを使用して達成した結果を報告します。
これにより、これまで無視されていたコンピュータビジョン研究の分野に注意を向け、より多くの研究者にこの問題に取り組むように促し、その結果、人間のパフォーマンスとコンピュータビジョンシステムの間のギャップをさらに縮めたいと考えています。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Combining Visual Saliency Methods and Sparse Keypoint Annotations to
Providently Detect Vehicles at Night [2.0299248281970956]
視覚的サリエンシとスパースなキーポイントアノテーションに基づいて異なるオブジェクト表現を作成するための、潜在的なサリエンシに基づくアプローチについて検討する。
このアプローチは、異なるオブジェクト表現の自動導出を可能にする。
我々は、実際に見えるようになる前に夜間に車両を検知する問題を研究するための、より強力なツールや方法を提供する。
論文 参考訳(メタデータ) (2022-04-25T09:56:34Z) - NOD: Taking a Closer Look at Detection under Extreme Low-Light
Conditions with Night Object Detection Dataset [25.29013780731876]
低い光は、以前考えられていたよりもマシン認知にとって困難である。
夜間に街路で撮影されたダイナミックなシーンを示す大規模なデータセットを提示する。
本稿では,画像強調モジュールをオブジェクト検出フレームワークと2つの新しいデータ拡張手法に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-20T03:44:04Z) - Provident Vehicle Detection at Night for Advanced Driver Assistance
Systems [3.7468898363447654]
本報告では, 夜間に来るべき車両を, 発生した光成果物に基づいて検出するシステムについて述べる。
本研究では,提案システムが提供する時間的メリットを,実稼働型コンピュータビジョンシステムと比較して定量化する。
論文 参考訳(メタデータ) (2021-07-23T15:27:17Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Provident Vehicle Detection at Night: The PVDN Dataset [2.8730465903425877]
夜間の農村環境における346の異なるシーンのうち、59746のグレースケール注釈付き画像を含む新しいデータセットを提示する。
これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。
そのために私たちは,新たな車両検出方法の研究を可能にするために,包括的な根拠データを備えたオープンソースデータセットを初めて提供します。
論文 参考訳(メタデータ) (2020-12-31T00:06:26Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。