論文の概要: Optimizing ROI Benefits Vehicle ReID in ITS
- arxiv url: http://arxiv.org/abs/2407.09966v1
- Date: Sat, 13 Jul 2024 18:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:08:02.890185
- Title: Optimizing ROI Benefits Vehicle ReID in ITS
- Title(参考訳): 自動車用リIDのROI最適化
- Authors: Mei Qiu, Lauren Ann Christopher, Lingxi Li, Stanley Chien, Yaobin Chen,
- Abstract要約: 車両再識別(英: Vehicle re-identification、ReID)とは、監視システムにおいて、異なるカメラや視点で同じ車両と一致するコンピュータビジョンタスクである。
本研究では,検出信頼度スコアによって導かれる最適な車両検出領域が,特徴マッチングとReIDタスクを向上できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 4.599517515407009
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Vehicle re-identification (ReID) is a computer vision task that matches the same vehicle across different cameras or viewpoints in a surveillance system. This is crucial for Intelligent Transportation Systems (ITS), where the effectiveness is influenced by the regions from which vehicle images are cropped. This study explores whether optimal vehicle detection regions, guided by detection confidence scores, can enhance feature matching and ReID tasks. Using our framework with multiple Regions of Interest (ROIs) and lane-wise vehicle counts, we employed YOLOv8 for detection and DeepSORT for tracking across twelve Indiana Highway videos, including two pairs of videos from non-overlapping cameras. Tracked vehicle images were cropped from inside and outside the ROIs at five-frame intervals. Features were extracted using pre-trained models: ResNet50, ResNeXt50, Vision Transformer, and Swin-Transformer. Feature consistency was assessed through cosine similarity, information entropy, and clustering variance. Results showed that features from images cropped inside ROIs had higher mean cosine similarity values compared to those involving one image inside and one outside the ROIs. The most significant difference was observed during night conditions (0.7842 inside vs. 0.5 outside the ROI with Swin-Transformer) and in cross-camera scenarios (0.75 inside-inside vs. 0.52 inside-outside the ROI with Vision Transformer). Information entropy and clustering variance further supported that features in ROIs are more consistent. These findings suggest that strategically selected ROIs can enhance tracking performance and ReID accuracy in ITS.
- Abstract(参考訳): 車両再識別(英: Vehicle re-identification、ReID)とは、監視システムにおいて、異なるカメラや視点で同じ車両と一致するコンピュータビジョンタスクである。
インテリジェントトランスポーテーションシステム(ITS: Intelligent Transportation Systems)では、車載画像が収穫される地域の影響を受けやすい。
本研究では,検出信頼度スコアによって導かれる最適な車両検出領域が,特徴マッチングとReIDタスクを向上できるかどうかを検討する。
複数の関心領域(ROI)と車線対応の車両数を用いて、私たちはYOLOv8を使って検出し、DeepSORTを使ってインディアナハイウェイの12の動画を追跡しました。
追跡された車両画像は、ROIの内外から5コマ間隔で収集された。
ResNet50、ResNeXt50、Vision Transformer、Swin-Transformerといった事前訓練されたモデルを使って特徴を抽出した。
特徴整合性はコサイン類似性,情報エントロピー,クラスタリング分散を通じて評価された。
その結果, ROI内部で採取した画像の特徴は, ROI内部とROI外部の画像を対象とする画像と比較すると, 平均コサイン類似度が高いことがわかった。
最も顕著な違いは、夜間(0.7842内、ROI外、Swin-Transformer外、0.5外)と、カメラ横断シナリオ(0.75内、Vision Transformer外、0.52外)で観察された。
情報エントロピーとクラスタリングの分散は、ROIの特徴がより一貫したものになることをさらに支持します。
これらの結果から,戦略的に選択されたROIは,ITSにおけるトラッキング性能とReID精度を向上させることが示唆された。
関連論文リスト
- Study on Aspect Ratio Variability toward Robustness of Vision Transformer-based Vehicle Re-identification [4.189040854337193]
本稿では,様々なアスペクト比で訓練されたモデルを融合する,新しいViTベースのReIDフレームワークを提案する。
提案手法は,平均精度が91.0%,平均精度が80.9%,平均精度が91.0%,平均精度が80.9%であった。
論文 参考訳(メタデータ) (2024-07-10T17:02:42Z) - Rotation Invariant Transformer for Recognizing Object in UAVs [66.1564328237299]
本稿では,UAVから興味の対象を認識するための回転不変視変換器(RotTrans)を提案する。
RotTrans は最先端の mAP と Rank1 よりも5.9%、かつ 4.8% 高い最先端の 最先端の 最先端の 最先端の 技術 をはるかに上回っている。
我々のソリューションは、マルチモーダルビデオ推論・アナライジングコンペティションにおいて、UAVベースの人物認識トラックで第一位を獲得しました。
論文 参考訳(メタデータ) (2023-11-05T03:55:08Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Sequential Spatial Network for Collision Avoidance in Autonomous Driving [5.108647313751154]
我々は,CNNの利点を活かして,地域特徴を捉えつつ,注意の変動を利用して地域間の特徴相関を確立するアルゴリズムを開発した。
平均衝突回数は運転距離10000フレームあたり19.4であり、衝突回避の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2023-03-12T17:43:32Z) - Enhanced Vehicle Re-identification for ITS: A Feature Fusion approach
using Deep Learning [0.0]
自動車の再識別はコンピュータビジョンとロボット工学の分野に関心を寄せている。
本稿では,CCTVカメラで車両を再識別するためのフレームワークを開発した。
このフレームワークは、CCTVカメラ20台で観測された81のユニークな車両識別を含むデータセットでテストされている。
論文 参考訳(メタデータ) (2022-08-13T05:59:16Z) - Self-aligned Spatial Feature Extraction Network for UAV Vehicle
Re-identification [3.449626476434765]
同じ色とタイプを持つ車両は、UAVの観点から非常に類似した外観を示している。
最近の研究は、地域的特徴と構成要素的特徴によって区別される情報を抽出する傾向がある。
効率的なきめ細かい特徴を抽出し、退屈な注釈付け作業を避けるために、この手紙は教師なしの自己整合ネットワークを開発する。
論文 参考訳(メタデータ) (2022-01-08T14:25:54Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。