論文の概要: Exploiting Polarized Material Cues for Robust Car Detection
- arxiv url: http://arxiv.org/abs/2401.02606v1
- Date: Fri, 5 Jan 2024 02:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 16:23:03.545758
- Title: Exploiting Polarized Material Cues for Robust Car Detection
- Title(参考訳): ロバスト車検出のための爆発性偏光材料キュー
- Authors: Wen Dong, Haiyang Mei, Ziqi Wei, Ao Jin, Sen Qiu, Qiang Zhang, Xin
Yang
- Abstract要約: 本稿では,三色線形偏光を用いた学習に基づく車検出手法を提案する。
重要な観察は、光波の特徴である偏光が、シーンオブジェクトの本質的な物理的特性を頑健に記述できることである。
提案手法を広範に検証し,最先端検出法より優れていることを示す。
- 参考スコア(独自算出の注目度): 16.258704198255234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Car detection is an important task that serves as a crucial prerequisite for
many automated driving functions. The large variations in lighting/weather
conditions and vehicle densities of the scenes pose significant challenges to
existing car detection algorithms to meet the highly accurate perception demand
for safety, due to the unstable/limited color information, which impedes the
extraction of meaningful/discriminative features of cars. In this work, we
present a novel learning-based car detection method that leverages trichromatic
linear polarization as an additional cue to disambiguate such challenging
cases. A key observation is that polarization, characteristic of the light
wave, can robustly describe intrinsic physical properties of the scene objects
in various imaging conditions and is strongly linked to the nature of materials
for cars (e.g., metal and glass) and their surrounding environment (e.g., soil
and trees), thereby providing reliable and discriminative features for robust
car detection in challenging scenes. To exploit polarization cues, we first
construct a pixel-aligned RGB-Polarization car detection dataset, which we
subsequently employ to train a novel multimodal fusion network. Our car
detection network dynamically integrates RGB and polarization features in a
request-and-complement manner and can explore the intrinsic material properties
of cars across all learning samples. We extensively validate our method and
demonstrate that it outperforms state-of-the-art detection methods.
Experimental results show that polarization is a powerful cue for car
detection.
- Abstract(参考訳): 自動車検出は多くの自動運転機能にとって重要な前提条件となる重要なタスクである。
照明・ウェザー条件の大きな変化と車両の密度は、車の意味的・識別的特徴の抽出を妨げる不安定/制限された色情報のために、安全に対する高精度な認識要求を満たすために既存の車検出アルゴリズムに重大な課題をもたらす。
本研究では,三色線分極を付加的な手がかりとして活用し,これらの課題を曖昧化させる学習に基づく新しい車検出手法を提案する。
重要な観察は、光波の特徴である偏光が、様々な撮像条件下でシーンオブジェクトの本質的な物理的特性を頑健に記述し、車(金属やガラスなど)とその周囲環境(土壌や木など)の材料の性質と強く結びついており、挑戦シーンにおける堅牢な車検出のための信頼性と差別的な特徴を提供する。
偏光キューを利用するために,まず画素対応のRGB偏光車検出データセットを構築し,その後,新しいマルチモーダル融合ネットワークを訓練する。
当社のカー検出ネットワークは,rgbと偏光機能を動的に統合し,すべての学習サンプルにまたがる自動車固有の素材特性を探索する。
提案手法を広範に検証し,最先端検出法より優れていることを示す。
実験の結果,偏光は車検出の強力な手がかりであることがわかった。
関連論文リスト
- Pre-Training LiDAR-Based 3D Object Detectors Through Colorization [65.03659880456048]
我々は,データとラベルのギャップを埋めるために,革新的な事前学習手法であるグラウンドドポイントカラー化(GPC)を導入する。
GPCは、LiDAR点雲を色付けし、価値あるセマンティック・キューを装備するモデルを教えている。
KITTIとデータセットの実験結果は、GPCの顕著な効果を示している。
論文 参考訳(メタデータ) (2023-10-23T06:00:24Z) - Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Object Detection in Thermal Spectrum for Advanced Driver-Assistance
Systems (ADAS) [0.5156484100374058]
熱赤外スペクトルにおける物体検出は、低照度条件と異なる気象条件においてより信頼性の高いデータソースを提供する。
本稿では,高度運転支援システム(ADAS)の7つの異なるクラスを用いたサーマルビジョンにおける最先端のオブジェクト・ビジョン・フレームワークの探索と適用について述べる。
公開データセット上のトレーニング済みネットワーク変種は、3つの異なるテストアプローチでテストデータ上で検証される。
訓練されたネットワークの有効性は、未冷却のLWIRプロトタイプ熱カメラで捉えたローカル収集された新しいテストデータで検証される。
論文 参考訳(メタデータ) (2021-09-20T21:38:55Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - Hearing What You Cannot See: Acoustic Vehicle Detection Around Corners [5.4960756528016335]
このような車両が視界に入る前に、音で接近する車両を検知できることが示される。
我々は,屋根付マイクロホンアレイを備えた研究車両を装着し,このセンサで収集したデータを示す。
車両が視認前に接近している方向を分類するための新しい方法が提示される。
論文 参考訳(メタデータ) (2020-07-30T20:57:13Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。