論文の概要: In-Vehicle Object Detection in the Wild for Driverless Vehicles
- arxiv url: http://arxiv.org/abs/2004.12700v1
- Date: Mon, 27 Apr 2020 10:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:13:48.525710
- Title: In-Vehicle Object Detection in the Wild for Driverless Vehicles
- Title(参考訳): 無人自動車の野生における車内物体検出
- Authors: Ranjith Dinakaran, Li Zhang and Richard Jiang
- Abstract要約: 車両内物体識別は、視覚に基づく自動走行システムにおいて重要な役割を果たす。
本研究では,DCGAN(Deep Convolutional Generative Adversarial Networks)とSSD(Single Shot Detector)を併用して野生環境に対処する。
- 参考スコア(独自算出の注目度): 4.901124285608471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-vehicle human object identification plays an important role in
vision-based automated vehicle driving systems while objects such as
pedestrians and vehicles on roads or streets are the primary targets to protect
from driverless vehicles. A challenge is the difficulty to detect objects in
moving under the wild conditions, while illumination and image quality could
drastically vary. In this work, to address this challenge, we exploit Deep
Convolutional Generative Adversarial Networks (DCGANs) with Single Shot
Detector (SSD) to handle with the wild conditions. In our work, a GAN was
trained with low-quality images to handle with the challenges arising from the
wild conditions in smart cities, while a cascaded SSD is employed as the object
detector to perform with the GAN. We used tested our approach under wild
conditions using taxi driver videos on London street in both daylight and night
times, and the tests from in-vehicle videos demonstrate that this strategy can
drastically achieve a better detection rate under the wild conditions.
- Abstract(参考訳): 車両内物体の識別は視覚に基づく自動走行システムにおいて重要な役割を担い、道路や道路上の歩行者や車両などの物体は無人走行車から保護される主要な標的である。
課題は、野生の環境下を移動する物体を検出するのが困難である一方で、照明や画質が大幅に異なることだ。
本研究では,この課題に対処するために,Dep Convolutional Generative Adversarial Networks (DCGANs) とSingle Shot Detector (SSD) を併用して野生環境に対処する。
我々の研究では、スマートシティの野生環境から生じる課題に対処するために、低画質の画像を用いてGANを訓練し、また、GANで実行する対象検出器として、ケース付きSSDが使用される。
ロンドン・ストリートのタクシー運転手の動画を昼間と夜間の両方で、野生条件下でテストし、車内ビデオによるテストでは、この戦略が野生条件下で検出率を大幅に向上できることが示されました。
関連論文リスト
- An Optimized YOLOv5 Based Approach For Real-time Vehicle Detection At Road Intersections Using Fisheye Cameras [0.13092499936969584]
リアルタイム車両検出は都市交通監視の課題である。
魚眼カメラは、広い面積をカバーし、ジャンクションでの360度ビューを提供するために、リアルタイム車両検出の目的に広く利用されている。
車両や街路灯からの光輝き、影、非線形歪み、車両のスケーリング問題、小型車両の適切な位置決めといった課題を克服するため、改良型YOLOv5物体検出方式を提案する。
論文 参考訳(メタデータ) (2025-02-06T23:42:05Z) - Enhancing Nighttime Vehicle Detection with Day-to-Night Style Transfer and Labeling-Free Augmentation [0.6749750044497732]
本研究では、CARLA生成合成データを利用したラベリングフリーなデータ拡張のための新しいフレームワークを提案する。
特に、このフレームワークは、現実的な日々のスタイルの転送のために、効率的な注意生成広告ネットワークを組み込んでいる。
提案手法の有効性を評価するため,夜間の農村環境に特化して収集したデータセットを用いてYOLO11モデルを微調整した。
論文 参考訳(メタデータ) (2024-12-21T04:13:46Z) - SUSTechGAN: Image Generation for Object Detection in Adverse Conditions of Autonomous Driving [22.985889862182642]
GAN(Generative Adversarial Network)は、自律運転のためのデータ拡張に応用されている。
本稿では,2つの注目モジュール,マルチスケールジェネレータ,新しい損失関数を備えた新しいフレームワーク,SUSTechGANを提案する。
我々は、SUSTechGANとよく知られたGANを用いて、雨と夜の悪天候下で駆動画像を生成し、生成した画像を物体検出ネットワークの再トレーニングに適用する。
論文 参考訳(メタデータ) (2024-07-18T15:32:25Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - First qualitative observations on deep learning vision model YOLO and DETR for automated driving in Austria [0.0]
本研究は,You Only Look Once (YOLO) のような単段および二段2次元物体検出アルゴリズムの適用性について検討する。
この研究は、オーストリアの道路状況と交通シナリオによって引き起こされる固有の課題に焦点を当てている。
論文 参考訳(メタデータ) (2023-12-19T16:39:02Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Computer Vision based Animal Collision Avoidance Framework for
Autonomous Vehicles [0.0]
動物はインドの道路でよく目撃されており、毎年自動車と自動車の事故が多発している。
これにより、このような事故の防止を支援するドライバーレス車両支援システムの開発が不可欠となる。
高速道路での動物検出の効率的なアプローチを開発することにより、車両と動物との衝突を回避するためのフレームワークを提案します。
論文 参考訳(メタデータ) (2020-12-20T09:51:23Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。