論文の概要: SPOT!: Map-Guided LLM Agent for Unsupervised Multi-CCTV Dynamic Object Tracking
- arxiv url: http://arxiv.org/abs/2512.20975v1
- Date: Wed, 24 Dec 2025 06:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.695739
- Title: SPOT!: Map-Guided LLM Agent for Unsupervised Multi-CCTV Dynamic Object Tracking
- Title(参考訳): SPOT!: Map-Guided LLM Agent for Unsupervised Multi-CCTV Dynamic Object Tracking
- Authors: Yujin Noh, Inho Jake Park, Chigon Hwang,
- Abstract要約: 本稿では,複数CCTV環境の盲点においても事前訓練なしで車両を追跡できる地図誘導型LLMエージェントであるSPOTを提案する。
CCTV画像で観測された物体の相対位置とFOV情報を用いて、車両の位置を実際の世界座標系に変換する。
仮想都市環境におけるCARLAシミュレータによる実験結果から,盲点区間においても,提案手法が次に現れるCCTVを正確に予測できることが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CCTV-based vehicle tracking systems face structural limitations in continuously connecting the trajectories of the same vehicle across multiple camera environments. In particular, blind spots occur due to the intervals between CCTVs and limited Fields of View (FOV), which leads to object ID switching and trajectory loss, thereby reducing the reliability of real-time path prediction. This paper proposes SPOT (Spatial Prediction Over Trajectories), a map-guided LLM agent capable of tracking vehicles even in blind spots of multi-CCTV environments without prior training. The proposed method represents road structures (Waypoints) and CCTV placement information as documents based on 2D spatial coordinates and organizes them through chunking techniques to enable real-time querying and inference. Furthermore, it transforms the vehicle's position into the actual world coordinate system using the relative position and FOV information of objects observed in CCTV images. By combining map spatial information with the vehicle's moving direction, speed, and driving patterns, a beam search is performed at the intersection level to derive candidate CCTV locations where the vehicle is most likely to enter after the blind spot. Experimental results based on the CARLA simulator in a virtual city environment confirmed that the proposed method accurately predicts the next appearing CCTV even in blind spot sections, maintaining continuous vehicle trajectories more effectively than existing techniques.
- Abstract(参考訳): CCTVベースの車両追跡システムは、複数のカメラ環境にまたがる同一車両の軌道を連続的に接続する際の構造的制約に直面している。
特に、CCTVと限定視野(FOV)の間隔によって盲点が発生し、オブジェクトIDの切り替えや軌道損失が生じ、リアルタイムの経路予測の信頼性が低下する。
本稿では,複数CCTV環境の盲点においても事前訓練なしで車両を追跡できる地図誘導型LLMエージェントであるSPOTを提案する。
提案手法は,道路構造(Waypoint)とCCTV配置情報を2次元空間座標に基づく文書として表現し,それらをチャンキング手法を用いて整理し,リアルタイムなクエリと推論を可能にする。
さらに、CCTV画像で観測された物体の相対位置とFOV情報を用いて、車両の位置を実世界座標系に変換する。
地図空間情報を車両の移動方向、速度、駆動パターンと組み合わせることで、交差点レベルでビーム探索を行い、車両が盲点の後に最も入射しやすい候補CCTV位置を導出する。
仮想都市環境におけるCARLAシミュレータによる実験結果から,提案手法は盲点区間においても,次に現れるCCTVを正確に予測し,既存の技術よりも効果的に連続車両軌道を維持できることが確認された。
関連論文リスト
- Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - An overcome of far-distance limitation on tunnel CCTV-based accident
detection in AI deep-learning frameworks [0.0]
トンネルCCTVは低い高さと長距離間隔に設置されている。
既存のトンネルCCTVによる事故検知システムにおいて、CCTVから遠く離れた場所の車両を検出することはほぼ不可能である。
本稿では,CCTVのオリジナル画像とワープ画像に基づいて,画像とバウンディングボックスからなる各データセットを作成する。
論文 参考訳(メタデータ) (2021-07-22T10:42:25Z) - Online Clustering-based Multi-Camera Vehicle Tracking in Scenarios with
overlapping FOVs [2.6365690297272617]
マルチターゲットマルチカメラ(MTMC)車両追跡は,視覚的交通監視において重要な課題である。
本稿では,MTMC追跡のための新しい低遅延オンライン手法を提案する。
論文 参考訳(メタデータ) (2021-02-08T09:55:55Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。