論文の概要: YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions
- arxiv url: http://arxiv.org/abs/2410.17734v1
- Date: Wed, 23 Oct 2024 10:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:02.297514
- Title: YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions
- Title(参考訳): YOLO-Vehicle-Pro: 逆気象下における自律走行における物体検出のためのクラウドエッジ協調フレームワーク
- Authors: Xiguang Li, Jiafu Chen, Yunhe Sun, Na Lin, Ammar Hawbani, Liang Zhao,
- Abstract要約: 本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
- 参考スコア(独自算出の注目度): 8.820126303110545
- License:
- Abstract: With the rapid advancement of autonomous driving technology, efficient and accurate object detection capabilities have become crucial factors in ensuring the safety and reliability of autonomous driving systems. However, in low-visibility environments such as hazy conditions, the performance of traditional object detection algorithms often degrades significantly, failing to meet the demands of autonomous driving. To address this challenge, this paper proposes two innovative deep learning models: YOLO-Vehicle and YOLO-Vehicle-Pro. YOLO-Vehicle is an object detection model tailored specifically for autonomous driving scenarios, employing multimodal fusion techniques to combine image and textual information for object detection. YOLO-Vehicle-Pro builds upon this foundation by introducing an improved image dehazing algorithm, enhancing detection performance in low-visibility environments. In addition to model innovation, this paper also designs and implements a cloud-edge collaborative object detection system, deploying models on edge devices and offloading partial computational tasks to the cloud in complex situations. Experimental results demonstrate that on the KITTI dataset, the YOLO-Vehicle-v1s model achieved 92.1% accuracy while maintaining a detection speed of 226 FPS and an inference time of 12ms, meeting the real-time requirements of autonomous driving. When processing hazy images, the YOLO-Vehicle-Pro model achieved a high accuracy of 82.3% mAP@50 on the Foggy Cityscapes dataset while maintaining a detection speed of 43 FPS.
- Abstract(参考訳): 自動運転技術の急速な進歩により、自律運転システムの安全性と信頼性を確保する上で、効率的で正確な物体検出能力が重要な要素となっている。
しかし、ぼんやりとした条件のような低視認性環境では、従来の物体検出アルゴリズムの性能は著しく低下し、自律運転の要求に応えられなかった。
そこで本研究では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動走行シナリオに特化したオブジェクト検出モデルであり、画像とテキスト情報を組み合わせてオブジェクト検出を行うマルチモーダル融合技術を使用している。
YOLO-Vehicle-Proはこの基盤の上に改良されたイメージデハージングアルゴリズムを導入し、低可視環境における検出性能を高めた。
モデル革新に加えて,エッジデバイス上にモデルを配置し,複雑な状況下で部分計算タスクをクラウドにオフロードする,クラウドエッジ協調オブジェクト検出システムの設計と実装も行う。
KITTIデータセットにおいて、YOLO-Vehicle-v1sモデルは、検出速度226 FPSと推定時間12msを維持しながら92.1%の精度を達成し、自動運転のリアルタイム要求を満たすことを示した。
派手な画像を処理する場合、YOLO-Vehicle-ProモデルはFogdy Cityscapesデータセットで82.3% mAP@50の精度を達成し、検出速度は43 FPSである。
関連論文リスト
- YOLOv11 for Vehicle Detection: Advancements, Performance, and Applications in Intelligent Transportation Systems [0.0]
本稿では,YOLOシリーズの深層学習モデルの最新の進歩であるYOLO11の詳細な解析について述べる。
YOLO11は、複雑な環境における検出速度、精度、堅牢性を向上させるために設計されたアーキテクチャの改善を導入している。
精度,リコール,F1スコア,平均平均精度(mAP)などの指標を用いて,YOLO11の性能を評価する。
論文 参考訳(メタデータ) (2024-10-30T10:57:46Z) - P-YOLOv8: Efficient and Accurate Real-Time Detection of Distracted Driving [0.0]
引き離された運転は重大な安全上の問題であり、世界中で多くの死者と負傷につながっている。
本研究では、注意をそらされた運転行動を検出するための効率的でリアルタイムな機械学習モデルの必要性に対処する。
リアルタイムオブジェクト検出システムを導入し、速度と精度の両方に最適化する。
論文 参考訳(メタデータ) (2024-10-21T02:56:44Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Edge YOLO: Real-Time Intelligent Object Detection System Based on
Edge-Cloud Cooperation in Autonomous Vehicles [5.295478084029605]
本稿では,エッジクラウド協調と再構成畳み込みニューラルネットワークに基づくオブジェクト検出(OD)システムを提案する。
このシステムは、クラウドコンピューティングリソースの計算能力と不均一な分散への過度な依存を効果的に回避することができる。
我々は,COCO 2017 および KITTI データセットにおける Edge YOLO の信頼性と効率を実験的に実証した。
論文 参考訳(メタデータ) (2022-05-30T09:16:35Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。