論文の概要: Application of YOLOv8 in monocular downward multiple Car Target detection
- arxiv url: http://arxiv.org/abs/2505.10016v1
- Date: Thu, 15 May 2025 06:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.211336
- Title: Application of YOLOv8 in monocular downward multiple Car Target detection
- Title(参考訳): YOLOv8の単分子下方多重目標検出への応用
- Authors: Shijie Lyu,
- Abstract要約: 本稿では,YOLOv8に基づく自律目標検出ネットワークの改良について述べる。
提案手法は,マルチスケール,小型,遠隔オブジェクトの高精度かつ高精度な検出を実現する。
実験結果から,大小の物体を65%の精度で効果的に検出できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving technology is progressively transforming traditional car driving methods, marking a significant milestone in modern transportation. Object detection serves as a cornerstone of autonomous systems, playing a vital role in enhancing driving safety, enabling autonomous functionality, improving traffic efficiency, and facilitating effective emergency responses. However, current technologies such as radar for environmental perception, cameras for road perception, and vehicle sensor networks face notable challenges, including high costs, vulnerability to weather and lighting conditions, and limited resolution.To address these limitations, this paper presents an improved autonomous target detection network based on YOLOv8. By integrating structural reparameterization technology, a bidirectional pyramid structure network model, and a novel detection pipeline into the YOLOv8 framework, the proposed approach achieves highly efficient and precise detection of multi-scale, small, and remote objects. Experimental results demonstrate that the enhanced model can effectively detect both large and small objects with a detection accuracy of 65%, showcasing significant advancements over traditional methods.This improved model holds substantial potential for real-world applications and is well-suited for autonomous driving competitions, such as the Formula Student Autonomous China (FSAC), particularly excelling in scenarios involving single-target and small-object detection.
- Abstract(参考訳): 自動運転技術は、従来の自動車運転法を徐々に変革させており、現代の交通における重要なマイルストーンとなっている。
物体検出は自律システムの基盤として機能し、運転安全性の向上、自律的な機能の実現、交通効率の向上、効果的な緊急対応の促進に重要な役割を果たしている。
しかし, 環境認識用レーダー, 道路認識用カメラ, 車両センサネットワークなどの現在の技術は, 高コスト, 気象・照明条件の脆弱性, 解像度の制限といった課題に直面しており, これらの制約に対処するために, YOLOv8に基づく自律目標検出ネットワークの改良について述べる。
構造パラメータ化技術, 双方向ピラミッド構造ネットワークモデル, 新規検出パイプラインをYOLOv8フレームワークに統合することにより, マルチスケール, 小型, 遠隔オブジェクトの高精度かつ高精度な検出を実現する。
実験結果から, 改良されたモデルでは, 65%の精度で大小の物体を効果的に検出でき, 従来の手法よりも大幅に進歩していることが明らかとなった。
関連論文リスト
- Automatic Vehicle Detection using DETR: A Transformer-Based Approach for Navigating Treacherous Roads [1.2187048691454239]
本研究では,複雑かつ多様な環境下での自動車両検出のための検出変換器(DETR)を初めて実験した。
我々は,コラボレーティブ・ハイブリッド・アサインメント・トレーニング・スキームであるCo-DETRを用いて,DeTRの特徴学習と注意機構を強化する。
提案手法は,より優れた結果を得るとともに,多様な条件下での精度の向上を実現し,実世界の展開に有効である。
論文 参考訳(メタデータ) (2025-02-25T04:43:28Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Auto-RT: Automatic Jailbreak Strategy Exploration for Red-Teaming Large Language Models [62.12822290276912]
Auto-RTは、複雑な攻撃戦略を探索し最適化する強化学習フレームワークである。
探索効率を大幅に改善し、攻撃戦略を自動的に最適化することにより、Auto-RTはボーダの脆弱性範囲を検出し、検出速度が速く、既存の方法と比較して16.63%高い成功率を達成する。
論文 参考訳(メタデータ) (2025-01-03T14:30:14Z) - YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - First qualitative observations on deep learning vision model YOLO and DETR for automated driving in Austria [0.0]
本研究は,You Only Look Once (YOLO) のような単段および二段2次元物体検出アルゴリズムの適用性について検討する。
この研究は、オーストリアの道路状況と交通シナリオによって引き起こされる固有の課題に焦点を当てている。
論文 参考訳(メタデータ) (2023-12-19T16:39:02Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。