論文の概要: Camera-based method for the detection of lifted truck axles using convolutional neural networks
- arxiv url: http://arxiv.org/abs/2506.11574v1
- Date: Fri, 13 Jun 2025 08:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.718543
- Title: Camera-based method for the detection of lifted truck axles using convolutional neural networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた昇降車軸検出のためのカメラベース手法
- Authors: Bachir Tchana Tankeu, Mohamed Bouteldja, Nicolas Grignard, Bernard Jacob,
- Abstract要約: コンボリューショナルニューラルネットワーク(CNN)は、交通方向に垂直に配置されたカメラで捉えたトラックのイメージから、リフトトラックの軸索を検出するために提案された。
提案手法の性能評価を行った結果,精度87%,リコール91.7%,推定時間1.4msであった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The identification and classification of vehicles play a crucial role in various aspects of the control-sanction system. Current technologies such as weigh-in-motion (WIM) systems can classify most vehicle categories but they struggle to accurately classify vehicles with lifted axles. Moreover, very few commercial and technical methods exist for detecting lifted axles. In this paper, as part of the European project SETO (Smart Enforcement of Transport Operations), a method based on a convolutional neural network (CNN), namely YOLOv8s, was proposed for the detection of lifted truck axles in images of trucks captured by cameras placed perpendicular to the direction of traffic. The performance of the proposed method was assessed and it was found that it had a precision of 87%, a recall of 91.7%, and an inference time of 1.4 ms, which makes it well-suited for real time implantations. These results suggest that further improvements could be made, potentially by increasing the size of the datasets and/or by using various image augmentation methods.
- Abstract(参考訳): 車両の識別と分類は、規制-制裁システムの様々な側面において重要な役割を果たしている。
ウェイト・イン・モーション(WIM)システムのような現在の技術は、ほとんどの車両カテゴリーを分類できるが、持ち上げ軸による車両の正確な分類に苦慮している。
さらに、揚力軸を検出するための商業的および技術的手法はごくわずかである。
本稿では,欧州のSETO(Smart Enforcement of Transport Operations)の一環として,コンボリューショナルニューラルネットワーク(CNN, YOLOv8s)に基づく交通方向に垂直に配置されたカメラで捉えたトラック画像中の昇降トラック軸の検出手法を提案した。
提案手法の性能評価を行い, 精度87%, 再現率91.7%, 推算時間1.4msであり, 実時間移植に適していることを確認した。
これらの結果は、データセットのサイズを拡大したり、様々な画像拡張手法を使用することで、さらなる改善が可能であることを示唆している。
関連論文リスト
- A Dynamic Transformer Network for Vehicle Detection [57.4144097001218]
車両検出のための動的トランスフォーマーネットワーク(DTNet)を提案する。
DTNetは動的畳み込みを利用してディープネットワークを誘導し、重量を動的に生成し、得られた検出器の適応性を高める。
画像アカウントにおける差の欠点を克服するため、変換変分畳み込みは、取得した車両検出構造情報を洗練するために、空間的位置情報に依存する。
論文 参考訳(メタデータ) (2025-06-03T11:29:35Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - RoadScan: A Novel and Robust Transfer Learning Framework for Autonomous
Pothole Detection in Roads [0.0]
本研究では,ディープラーニングと画像処理技術を用いた新しいポットホール検出手法を提案する。
このシステムは、道路利用者に重大なリスクをもたらす道路上の穴の致命的な問題に対処することを目的としている。
論文 参考訳(メタデータ) (2023-08-07T10:47:08Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。