論文の概要: TAU: A Framework for Video-Based Traffic Analytics Leveraging Artificial
Intelligence and Unmanned Aerial Systems
- arxiv url: http://arxiv.org/abs/2303.00337v1
- Date: Wed, 1 Mar 2023 09:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:24:53.749522
- Title: TAU: A Framework for Video-Based Traffic Analytics Leveraging Artificial
Intelligence and Unmanned Aerial Systems
- Title(参考訳): TAU: 人工知能と無人航空システムを活用したビデオベーストラフィック分析フレームワーク
- Authors: Bilel Benjdira, Anis Koubaa, Ahmad Taher Azar, Zahid Khan, Adel Ammar,
Wadii Boulila
- Abstract要約: 自動トラフィック分析と理解のためのAI統合ビデオ分析フレームワークTAU(Traffic Analysis from UAVs)を開発した。
トラヒックビデオ解析における従来の研究とは違って,ビデオ処理から高解像度UAV画像を用いた高度なトラヒック理解へ向けた自動物体検出・追跡パイプラインを提案する。
- 参考スコア(独自算出の注目度): 2.748428882236308
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Smart traffic engineering and intelligent transportation services are in
increasing demand from governmental authorities to optimize traffic performance
and thus reduce energy costs, increase the drivers' safety and comfort, ensure
traffic laws enforcement, and detect traffic violations. In this paper, we
address this challenge, and we leverage the use of Artificial Intelligence (AI)
and Unmanned Aerial Vehicles (UAVs) to develop an AI-integrated video analytics
framework, called TAU (Traffic Analysis from UAVs), for automated traffic
analytics and understanding. Unlike previous works on traffic video analytics,
we propose an automated object detection and tracking pipeline from video
processing to advanced traffic understanding using high-resolution UAV images.
TAU combines six main contributions. First, it proposes a pre-processing
algorithm to adapt the high-resolution UAV image as input to the object
detector without lowering the resolution. This ensures an excellent detection
accuracy from high-quality features, particularly the small size of detected
objects from UAV images. Second, it introduces an algorithm for recalibrating
the vehicle coordinates to ensure that vehicles are uniquely identified and
tracked across the multiple crops of the same frame. Third, it presents a speed
calculation algorithm based on accumulating information from successive frames.
Fourth, TAU counts the number of vehicles per traffic zone based on the Ray
Tracing algorithm. Fifth, TAU has a fully independent algorithm for crossroad
arbitration based on the data gathered from the different zones surrounding it.
Sixth, TAU introduces a set of algorithms for extracting twenty-four types of
insights from the raw data collected. The code is shared here:
https://github.com/bilel-bj/TAU. Video demonstrations are provided here:
https://youtu.be/wXJV0H7LviU and here: https://youtu.be/kGv0gmtVEbI.
- Abstract(参考訳): スマート交通工学とインテリジェント交通サービスは、交通性能を最適化し、エネルギーコストを削減し、運転者の安全と快適性を高め、交通法を執行し、交通違反を検出するために、政府当局からの需要が増えている。
本稿では、この課題に対処し、自動トラフィック分析と理解のためにAI(AI)と無人航空機(UAV)を使用して、TAU(Traffic Analysis from UAVs)と呼ばれるAI統合ビデオ分析フレームワークを開発する。
従来のトラヒックビデオ解析と異なり,高分解能のuav画像を用いた映像処理から高度なトラヒック理解までの自動検出・追跡パイプラインを提案する。
tauの主な貢献は6つある。
まず,分解能を低下させることなく,高分解能のuav画像を入力としてオブジェクト検出器に適応させる前処理アルゴリズムを提案する。
これにより、高品質な特徴、特にUAV画像から検出された物体の小さなサイズから、優れた検出精度が得られる。
第二に、車両の座標を再調整するアルゴリズムを導入し、車両が同一フレームの複数の作物にまたがって一意に識別され追跡されることを保証する。
第3に,逐次フレームからの情報を蓄積した速度計算アルゴリズムを提案する。
第4に、TAUはRay Tracingアルゴリズムに基づいてトラフィックゾーン当たりの車両数をカウントする。
第5に、TAUは周囲の異なるゾーンから収集されたデータに基づいて、クロスロード仲裁のための完全に独立したアルゴリズムを持っている。
6番目のTAUでは、収集された生データから24種類の洞察を抽出するアルゴリズムが導入された。
コードはここで共有される。 https://github.com/bilel-bj/tau。
https://youtu.be/wxjv0h7lviu と https://youtu.be/kgv0gmtvebi。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - MEDAVET: Traffic Vehicle Anomaly Detection Mechanism based on spatial
and temporal structures in vehicle traffic [2.8068840920981484]
本稿では,高速道路の交通異常を検出するために,コンピュータビジョンを用いた車両追跡をモデル化することを目的とする。
トラフィックの検出、追跡、分析のステップを開発する。
実験結果から,本手法はTrack4テストセットで許容可能であることが示された。
論文 参考訳(メタデータ) (2023-10-28T00:36:50Z) - Traffic-Domain Video Question Answering with Automatic Captioning [69.98381847388553]
Video Question Answering (VidQA) は、高度な機械推論機能を促進する重要な可能性を示している。
本稿では,交通領域の知識を大規模ビデオ言語モデルに注入する弱スーパービジョン手法として,交通領域ビデオ質問回答と自動キャプション(TRIVIA)を提案する。
論文 参考訳(メタデータ) (2023-07-18T20:56:41Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis [3.093890460224435]
著者は、さまざまな種類の車両を検出し、追跡するために、アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
モデルの組み合わせを検証し、手動で数えた9時間以上の交通映像データと比較する。
その結果,CentralNet,Deep SORT,Deuterron2,Deep SORT,YOLOv4,Deep SORTの組み合わせは全車種で最高の総計数率を示した。
論文 参考訳(メタデータ) (2020-07-31T17:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。