論文の概要: Connecting Vision and Emissions: A Behavioural AI Approach to Carbon Estimation in Road Design
- arxiv url: http://arxiv.org/abs/2506.18924v1
- Date: Wed, 18 Jun 2025 11:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.286091
- Title: Connecting Vision and Emissions: A Behavioural AI Approach to Carbon Estimation in Road Design
- Title(参考訳): ビジョンとエミッションの接続: 道路設計における炭素推定のための行動AIアプローチ
- Authors: Ammar K Al Mhdawi, Nonso Nnamoko, Safanah Mudheher Raafat, M. K. S. Al-Mhdawi, Amjad J Humaidi,
- Abstract要約: 都市環境における二酸化炭素排出量を推定するためのリアルタイム車両検出・分類フレームワークを改良したYOLOv8を提案する。
このフレームワークは、検出された各車両が追跡され、そのバウンディングボックスが収穫され、ディープ光学文字認識(OCR)モジュールに渡されるハイブリッドパイプラインを含む。
このOCRシステムは、複数の畳み込みニューラルネットワーク(CNN)層で構成され、文字レベルの検出とライセンスプレートの復号のために特別に訓練されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an enhanced YOLOv8 real time vehicle detection and classification framework, for estimating carbon emissions in urban environments. The system enhances YOLOv8 architecture to detect, segment, and track vehicles from live traffic video streams. Once a vehicle is localized, a dedicated deep learning-based identification module is employed to recognize license plates and classify vehicle types. Since YOLOv8 lacks the built-in capacity for fine grained recognition tasks such as reading license plates or determining vehicle attributes beyond class labels, our framework incorporates a hybrid pipeline where each detected vehicle is tracked and its bounding box is cropped and passed to a deep Optical Character Recognition (OCR) module. This OCR system, composed of multiple convolutional neural network (CNN) layers, is trained specifically for character-level detection and license plate decoding under varied conditions such as motion blur, occlusion, and diverse font styles. Additionally, the recognized plate information is validated using a real time API that cross references with an external vehicle registration database to ensure accurate classification and emission estimation. This multi-stage approach enables precise, automated calculation of per vehicle carbon emissions. Extensive evaluation was conducted using a diverse vehicle dataset enriched with segmentation masks and annotated license plates. The YOLOv8 detector achieved a mean Average Precision (mAP@0.5) of approximately 71% for bounding boxes and 70% for segmentation masks. Character level OCR accuracy reached up to 99% with the best performing CNN model. These results affirm the feasibility of combining real time object detection with deep OCR for practical deployment in smart transportation systems, offering a scalable solution for automated, vehicle specific carbon emission monitoring.
- Abstract(参考訳): 都市環境における二酸化炭素排出量を推定するためのリアルタイム車両検出・分類フレームワークを改良したYOLOv8を提案する。
このシステムはYOLOv8アーキテクチャを強化し、ライブトラフィックビデオストリームから車両を検出し、セグメンテーションし、追跡する。
車両がローカライズされると、専用ディープラーニングベースの識別モジュールが使用され、ライセンスプレートを認識し、車両のタイプを分類する。
YOLOv8は,ライセンスプレートの読み出しや,クラスラベルを越えた車両属性決定などの微粒化認識タスクの内蔵能力に欠けるため,検出された各車両をトラッキングし,そのバウンディングボックスを収穫し,深層光認識(OCR)モジュールに渡すハイブリッドパイプラインが組み込まれている。
このOCRシステムは、複数の畳み込みニューラルネットワーク(CNN)層から構成されており、モーションボケ、オクルージョン、多様なフォントスタイルといった様々な条件下で、文字レベルの検出とライセンスプレートの復号のために特別に訓練されている。
また、認識されたプレート情報は、外部車両登録データベースと参照を交わすリアルタイムAPIを使用して検証され、正確な分類及び排出推定が保証される。
このマルチステージアプローチは、車両当たりの二酸化炭素排出量の正確な自動計算を可能にする。
セグメンテーションマスクとアノテートプレートを具備した多種多様な車両データセットを用いて,広範囲な評価を行った。
YOLOv8検出器は平均平均精度(mAP@0.5)が71%、セグメンテーションマスクが70%に達した。
キャラクタレベルのOCR精度は、最高のCNNモデルで最大99%に達した。
これらの結果は、スマートトランスポートシステムにおいて、リアルタイムオブジェクト検出と深部OCRを組み合わせることで、自動化された車両固有の二酸化炭素排出量モニタリングのためのスケーラブルなソリューションを提供する可能性を実証している。
関連論文リスト
- Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - End-to-End License Plate Recognition Pipeline for Real-time Low Resource
Video Based Applications [0.43012765978447565]
リアルタイムの推論速度を実現するために、Vision APIと組み合わせた新しい2段階検出パイプラインを提案する。
私たちは、画像データセットと、野生のライセンスプレートを含むビデオデータセットに基づいて、モデルをトレーニングしました。
実時間処理速度(毎秒27.2フレーム)で妥当な検出・認識性能を観測した。
論文 参考訳(メタデータ) (2021-08-18T18:31:01Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - LittleYOLO-SPP: A Delicate Real-Time Vehicle Detection Algorithm [0.0]
既存のリアルタイム車両検出には精度と速度が欠けている。
LittleYOLO-SPPネットワークは、ビデオフレームや気象条件に関わらず、リアルタイムで車両を高精度に検出する。
論文 参考訳(メタデータ) (2020-11-11T17:57:49Z) - Towards End-to-end Car License Plate Location and Recognition in
Unconstrained Scenarios [0.0]
ライセンスプレートの検出と認識を同時に行うための効率的なフレームワークを提案する。
軽量で統一されたディープニューラルネットワークで、エンドツーエンドに最適化され、リアルタイムに動作する。
実験結果から,提案手法は従来の最先端手法よりも高速・高精度で優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-08-25T09:51:33Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。