論文の概要: In-Vehicle Object Detection in the Wild for Driverless Vehicles
- arxiv url: http://arxiv.org/abs/2004.12700v1
- Date: Mon, 27 Apr 2020 10:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:13:48.525710
- Title: In-Vehicle Object Detection in the Wild for Driverless Vehicles
- Title(参考訳): 無人自動車の野生における車内物体検出
- Authors: Ranjith Dinakaran, Li Zhang and Richard Jiang
- Abstract要約: 車両内物体識別は、視覚に基づく自動走行システムにおいて重要な役割を果たす。
本研究では,DCGAN(Deep Convolutional Generative Adversarial Networks)とSSD(Single Shot Detector)を併用して野生環境に対処する。
- 参考スコア(独自算出の注目度): 4.901124285608471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-vehicle human object identification plays an important role in
vision-based automated vehicle driving systems while objects such as
pedestrians and vehicles on roads or streets are the primary targets to protect
from driverless vehicles. A challenge is the difficulty to detect objects in
moving under the wild conditions, while illumination and image quality could
drastically vary. In this work, to address this challenge, we exploit Deep
Convolutional Generative Adversarial Networks (DCGANs) with Single Shot
Detector (SSD) to handle with the wild conditions. In our work, a GAN was
trained with low-quality images to handle with the challenges arising from the
wild conditions in smart cities, while a cascaded SSD is employed as the object
detector to perform with the GAN. We used tested our approach under wild
conditions using taxi driver videos on London street in both daylight and night
times, and the tests from in-vehicle videos demonstrate that this strategy can
drastically achieve a better detection rate under the wild conditions.
- Abstract(参考訳): 車両内物体の識別は視覚に基づく自動走行システムにおいて重要な役割を担い、道路や道路上の歩行者や車両などの物体は無人走行車から保護される主要な標的である。
課題は、野生の環境下を移動する物体を検出するのが困難である一方で、照明や画質が大幅に異なることだ。
本研究では,この課題に対処するために,Dep Convolutional Generative Adversarial Networks (DCGANs) とSingle Shot Detector (SSD) を併用して野生環境に対処する。
我々の研究では、スマートシティの野生環境から生じる課題に対処するために、低画質の画像を用いてGANを訓練し、また、GANで実行する対象検出器として、ケース付きSSDが使用される。
ロンドン・ストリートのタクシー運転手の動画を昼間と夜間の両方で、野生条件下でテストし、車内ビデオによるテストでは、この戦略が野生条件下で検出率を大幅に向上できることが示されました。
関連論文リスト
- SID: Stereo Image Dataset for Autonomous Driving in Adverse Conditions [1.0805335573008565]
我々は,大規模なステレオ画像データセットであるStereo Image dataset (SID)を紹介した。
データセットには、天気状況、日時、場所、道路状況のシーケンスレベルのアノテーションと、カメラレンズの汚れの例が含まれている。
これらのアルゴリズムは、レンズの汚れのような困難な状況に対処する場合でも、様々な天候や照明条件をまたいで一貫した信頼性の高い操作をサポートする。
論文 参考訳(メタデータ) (2024-07-06T00:58:31Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - First qualitative observations on deep learning vision model YOLO and
DETR for automated driving in Austria [0.0]
本研究は,You Only Look Once (YOLO) のような単段および二段2次元物体検出アルゴリズムの適用性について検討する。
この研究は、オーストリアの道路状況と交通シナリオによって引き起こされる固有の課題に焦点を当てている。
論文 参考訳(メタデータ) (2023-12-19T16:39:02Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - LiDAR-as-Camera for End-to-End Driving [1.0323063834827415]
Ouster LiDARは、深度、強度、周囲の放射線チャンネルを備えたサラウンドビューのLiDARイメージを出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間で完全に整列する。
このようなLiDAR画像は、実車走行追従作業に十分であり、テスト条件下では少なくともカメラベースモデルに対して等しく動作することを示す。
研究の第2の方向において、非政治予測シーケンスの時間的スムーズさは、一般的に使用される平均絶対誤差と実際のオンライン運転能力と等しく相関することが明らかとなった。
論文 参考訳(メタデータ) (2022-06-30T10:06:49Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Computer Vision based Animal Collision Avoidance Framework for
Autonomous Vehicles [0.0]
動物はインドの道路でよく目撃されており、毎年自動車と自動車の事故が多発している。
これにより、このような事故の防止を支援するドライバーレス車両支援システムの開発が不可欠となる。
高速道路での動物検出の効率的なアプローチを開発することにより、車両と動物との衝突を回避するためのフレームワークを提案します。
論文 参考訳(メタデータ) (2020-12-20T09:51:23Z) - Improved YOLOv3 Object Classification in Intelligent Transportation
System [29.002873450422083]
高速道路における車両・運転者・人の検出・分類を実現するために, YOLOv3に基づくアルゴリズムを提案する。
モデルは優れた性能を持ち、道路遮断、異なる姿勢、極端な照明に頑丈である。
論文 参考訳(メタデータ) (2020-04-08T11:45:13Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。