論文の概要: Human-in-the-loop Reasoning For Traffic Sign Detection: Collaborative Approach Yolo With Video-llava
- arxiv url: http://arxiv.org/abs/2410.05096v1
- Date: Mon, 7 Oct 2024 14:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 00:18:33.033595
- Title: Human-in-the-loop Reasoning For Traffic Sign Detection: Collaborative Approach Yolo With Video-llava
- Title(参考訳): 交通信号検出のためのループ内人間推論:Yoloとビデオラバの協調的アプローチ
- Authors: Mehdi Azarafza, Fatima Idrees, Ali Ehteshami Bejnordi, Charles Steinmetz, Stefan Henkler, Achim Rettberg,
- Abstract要約: 本稿では,映像解析と推論を組み合わせる手法を提案する。
ビデオラバの誘導と推論能力により,YOLOの信号検出能力が向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traffic Sign Recognition (TSR) detection is a crucial component of autonomous vehicles. While You Only Look Once (YOLO) is a popular real-time object detection algorithm, factors like training data quality and adverse weather conditions (e.g., heavy rain) can lead to detection failures. These failures can be particularly dangerous when visual similarities between objects exist, such as mistaking a 30 km/h sign for a higher speed limit sign. This paper proposes a method that combines video analysis and reasoning, prompting with a human-in-the-loop guide large vision model to improve YOLOs accuracy in detecting road speed limit signs, especially in semi-real-world conditions. It is hypothesized that the guided prompting and reasoning abilities of Video-LLava can enhance YOLOs traffic sign detection capabilities. This hypothesis is supported by an evaluation based on human-annotated accuracy metrics within a dataset of recorded videos from the CARLA car simulator. The results demonstrate that a collaborative approach combining YOLO with Video-LLava and reasoning can effectively address challenging situations such as heavy rain and overcast conditions that hinder YOLOs detection capabilities.
- Abstract(参考訳): 交通信号認識(TSR)検出は自動運転車の重要な構成要素である。
You Only Look Once(YOLO)は、リアルタイムオブジェクト検出アルゴリズムとして人気があるが、トレーニングデータの品質や悪天候(大雨など)などの要因は、検出に失敗する可能性がある。
これらの故障は、より高速な制限標識のために30km/hの標識を誤るなど、物体間の視覚的類似性が存在する場合、特に危険である。
本稿では,映像解析と推論を組み合わせる手法を提案し,特に半現実的条件下での道路速度制限信号の検出におけるYOLOの精度向上を図る。
ビデオラバの誘導と推論能力により,YOLOの信号検出能力が向上する可能性が示唆された。
この仮説は、CARLAカーシミュレータから記録されたビデオのデータセット内の人間の注釈付き精度測定値に基づく評価によって支持される。
その結果, YOLO と Video-LLava の併用と推論を併用することで, YOLO 検出能力を阻害する豪雨やオーバーキャストといった困難な状況に効果的に対処できることが示唆された。
関連論文リスト
- YOLO-PPA based Efficient Traffic Sign Detection for Cruise Control in Autonomous Driving [10.103731437332693]
自律運転システムにおいて,交通標識を効率的にかつ正確に検出することが重要である。
既存のオブジェクト検出アルゴリズムでは、これらの小さなスケールの兆候をほとんど検出できない。
本稿では, YOLO PPAに基づく交通標識検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-05T07:49:21Z) - Real-Time Traffic Sign Detection: A Case Study in a Santa Clara Suburban
Neighborhood [2.4087090457198435]
プロジェクトの主な目的は、さまざまなトラフィックサインイメージのデータセット上でYOLOv5モデルをトレーニングし、適切なハードウェアプラットフォームにモデルをデプロイすることである。
本システムの性能は,交通信号の検出精度,リアルタイム処理速度,全体的な信頼性に基づいて評価する。
論文 参考訳(メタデータ) (2023-10-14T17:52:28Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - A Real-Time Wrong-Way Vehicle Detection Based on YOLO and Centroid
Tracking [0.0]
誤運転は、世界中の道路事故や交通渋滞の主な原因の1つである。
本稿では,道路監視カメラによる車両自動検知システムを提案する。
論文 参考訳(メタデータ) (2022-10-19T00:53:28Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Driving Anomaly Detection Using Conditional Generative Adversarial
Network [26.45460503638333]
本研究では,条件付き生成逆数ネットワーク(GAN)を用いた運転異常の定量化手法を提案する。
この手法は、事前に観測された信号にモデルを条件付けすることで、今後の運転シナリオを予測する。
結果は知覚的評価によって検証され、アノテータは高い異常スコアで検出されたビデオのリスクと親しみやすさを評価するよう依頼される。
論文 参考訳(メタデータ) (2022-03-15T22:10:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。