論文の概要: YOLOSCM: An improved YOLO algorithm for cars detection
- arxiv url: http://arxiv.org/abs/2501.13343v1
- Date: Thu, 23 Jan 2025 03:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:58:16.884866
- Title: YOLOSCM: An improved YOLO algorithm for cars detection
- Title(参考訳): YOLOSCM:車検出のための改良型YOLOアルゴリズム
- Authors: Changhui Deng, Lieyang Chen, Shinan Liu,
- Abstract要約: クラスタリングモジュール(SCM)は、クラスタ化された領域を適応的に識別し、モデルがこれらの領域に集中してより正確な検出を可能にする。
提案手法の有効性と優位性を示すため,都市交通データセットに関する広範な実験を行った。
- 参考スコア(独自算出の注目度): 2.028557470313859
- License:
- Abstract: Detecting objects in urban traffic images presents considerable difficulties because of the following reasons: 1) These images are typically immense in size, encompassing millions or even hundreds of millions of pixels, yet computational resources are constrained. 2) The small size of vehicles in certain scenarios leads to insufficient information for accurate detection. 3) The uneven distribution of vehicles causes inefficient use of computational resources. To address these issues, we propose YOLOSCM (You Only Look Once with Segmentation Clustering Module), an efficient and effective framework. To address the challenges of large-scale images and the non-uniform distribution of vehicles, we propose a Segmentation Clustering Module (SCM). This module adaptively identifies clustered regions, enabling the model to focus on these areas for more precise detection. Additionally, we propose a new training strategy to optimize the detection of small vehicles and densely packed targets in complex urban traffic scenes. We perform extensive experiments on urban traffic datasets to demonstrate the effectiveness and superiority of our proposed approach.
- Abstract(参考訳): 都市交通画像における物体検出は, 以下の理由から, かなりの困難を呈している。
1) これらの画像は典型的には巨大なサイズであり、数百万または数億のピクセルを包含するが、計算資源は制約されている。
2 特定のシナリオにおける車両の小型化は、正確な検出に不十分な情報をもたらす。
3) 車両の不均一分布は, 計算資源の非効率利用を引き起こす。
これらの問題に対処するため、効率的なフレームワークであるYOLOSCM(You Only Look Once with Segmentation Clustering Module)を提案する。
大規模画像の課題と車両の非一様分布に対処するため, セグメンテーションクラスタリングモジュール (SCM) を提案する。
このモジュールはクラスタ化された領域を適応的に識別し、モデルがこれらの領域に集中してより正確な検出を可能にする。
さらに,都市交通の複雑なシーンにおいて,小型車両や密集したターゲットの検出を最適化するための新たなトレーニング戦略を提案する。
提案手法の有効性と優位性を示すため,都市交通データセットに関する広範な実験を行った。
関連論文リスト
- YOLC: You Only Look Clusters for Tiny Object Detection in Aerial Images [33.80392696735718]
YOLC(You Only Look Clusters)は、アンカーフリーなオブジェクト検出器であるCenterNet上に構築された、効率的で効果的なフレームワークである。
大規模画像や非一様オブジェクトの分布がもたらす課題を克服するため,正確な検出のためにクラスタ領域のズームインを適応的に検索するローカルスケールモジュール(LSM)を導入する。
Visdrone 2019 と UAVDT を含む2つの航空画像データセットに対する広範な実験を行い、提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-04-09T10:03:44Z) - Smart Traffic Management of Vehicles using Faster R-CNN based Deep
Learning Method [0.0]
本研究では,より高速なR-CNNに基づく深層学習手法を車両のセグメンテーションに向けて検討する。
計算フレームワークは適応的背景モデリングのアイデアを使用する。
実験結果は,この計算フレームワークの優位性を示している。
論文 参考訳(メタデータ) (2023-11-03T05:30:13Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Bounding Box-Free Instance Segmentation Using Semi-Supervised Learning
for Generating a City-Scale Vehicle Dataset [0.0]
車両分類は熱いコンピュータビジョンのトピックであり、地上画像からトップ画像まで幅広い研究が行われている。
本稿では,GISソフトウェアを用いた半教師付き反復学習手法を提案する。
その結果,Mask-RCNN(IoUでは82%,IoUでは67%)と比較してピクセル単位の計測精度が向上した。
論文 参考訳(メタデータ) (2021-11-23T19:42:12Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Improved detection of small objects in road network sequences [0.0]
本稿では,畳み込みニューラルネットワークによる検出に基づく超解像プロセスを適用し,小型物体の検出手法を提案する。
本研究は, 異なるスケールの要素を含むトラヒック画像の集合に対して, モデルにより得られた検出値に従って効率を試験するために試験された。
論文 参考訳(メタデータ) (2021-05-18T10:13:23Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation [9.730985797769764]
市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
論文 参考訳(メタデータ) (2020-04-20T13:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。