論文の概要: Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation
- arxiv url: http://arxiv.org/abs/2004.09251v2
- Date: Sun, 13 Sep 2020 17:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:01:44.826968
- Title: Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation
- Title(参考訳): マルチカメラ領域適応による無人車両計数
- Authors: Luca Ciampi and Carlos Santiago and Joao Paulo Costeira and Claudio
Gennaro and Giuseppe Amato
- Abstract要約: 市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
- 参考スコア(独自算出の注目度): 9.730985797769764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monitoring vehicle flows in cities is crucial to improve the urban
environment and quality of life of citizens. Images are the best sensing
modality to perceive and assess the flow of vehicles in large areas. Current
technologies for vehicle counting in images hinge on large quantities of
annotated data, preventing their scalability to city-scale as new cameras are
added to the system. This is a recurrent problem when dealing with physical
systems and a key research area in Machine Learning and AI. We propose and
discuss a new methodology to design image-based vehicle density estimators with
few labeled data via multiple camera domain adaptations.
- Abstract(参考訳): 市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像は、広範囲の車両の流れを知覚し、評価するのに最も適している。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
これは、物理システムと機械学習とAIにおける重要な研究領域を扱う際に、繰り返し発生する問題である。
本稿では,複数カメラ領域の適応によるラベル付きデータが少ない画像に基づく車両密度推定器の設計手法を提案する。
関連論文リスト
- MC-BEVRO: Multi-Camera Bird Eye View Road Occupancy Detection for Traffic Monitoring [23.396192711865147]
交通監視のための単一カメラの3次元認識は、閉塞性や視野の制限により大きな課題に直面している。
本稿では,複数の路面カメラを活用した新しいBird's-Eye-Viewロード占有検知フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-16T22:03:03Z) - An Optimized YOLOv5 Based Approach For Real-time Vehicle Detection At Road Intersections Using Fisheye Cameras [0.13092499936969584]
リアルタイム車両検出は都市交通監視の課題である。
魚眼カメラは、広い面積をカバーし、ジャンクションでの360度ビューを提供するために、リアルタイム車両検出の目的に広く利用されている。
車両や街路灯からの光輝き、影、非線形歪み、車両のスケーリング問題、小型車両の適切な位置決めといった課題を克服するため、改良型YOLOv5物体検出方式を提案する。
論文 参考訳(メタデータ) (2025-02-06T23:42:05Z) - Low-Light Image Enhancement Framework for Improved Object Detection in Fisheye Lens Datasets [4.170227455727819]
本研究は,魚眼レンズカメラを用いた都市交通監視システムの進化的課題について考察する。
フィッシュアイレンズは、1つのフレームで広角と全方位のカバーを提供し、変換性のあるソリューションとなる。
これらの課題に触発された本研究では,ランズフォーマーに基づく画像強調フレームワークとアンサンブル学習技術を組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-15T18:32:52Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Mixed Traffic Control and Coordination from Pixels [18.37701232116777]
交通制御の従来の手法は、現在の渋滞レベルを緩和する上で無駄であることが証明されている。
これにより、ロボット車両が強化学習(RL)を通して人間駆動車両を規制する交通制御が混在する。
本研究では,環境の正確な情報を用いて,画像観測を用いたロボット車両の競争性能を示す。
論文 参考訳(メタデータ) (2023-02-17T22:40:07Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。