論文の概要: Enhanced Vehicle Re-identification for ITS: A Feature Fusion approach
using Deep Learning
- arxiv url: http://arxiv.org/abs/2208.06579v1
- Date: Sat, 13 Aug 2022 05:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:46:17.595168
- Title: Enhanced Vehicle Re-identification for ITS: A Feature Fusion approach
using Deep Learning
- Title(参考訳): itsの車両再識別:深層学習を用いた機能融合アプローチ
- Authors: Ashutosh Holla B, Manohara Pai M.M, Ujjwal Verma, Radhika M. Pai
- Abstract要約: 自動車の再識別はコンピュータビジョンとロボット工学の分野に関心を寄せている。
本稿では,CCTVカメラで車両を再識別するためのフレームワークを開発した。
このフレームワークは、CCTVカメラ20台で観測された81のユニークな車両識別を含むデータセットでテストされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the development of robust Intelligent transportation systems
(ITS) is tackled across the globe to provide better traffic efficiency by
reducing frequent traffic problems. As an application of ITS, vehicle
re-identification has gained ample interest in the domain of computer vision
and robotics. Convolutional neural network (CNN) based methods are developed to
perform vehicle re-identification to address key challenges such as occlusion,
illumination change, scale, etc. The advancement of transformers in computer
vision has opened an opportunity to explore the re-identification process
further to enhance performance. In this paper, a framework is developed to
perform the re-identification of vehicles across CCTV cameras. To perform
re-identification, the proposed framework fuses the vehicle representation
learned using a CNN and a transformer model. The framework is tested on a
dataset that contains 81 unique vehicle identities observed across 20 CCTV
cameras. From the experiments, the fused vehicle re-identification framework
yields an mAP of 61.73% which is significantly better when compared with the
standalone CNN or transformer model.
- Abstract(参考訳): 近年,頻繁な交通問題を低減し,より効率的な交通効率を実現するため,堅牢なインテリジェント交通システム(ITS)の開発が世界中で進められている。
ITSの応用として、車両の再識別はコンピュータビジョンとロボティクスの分野において大きな関心を集めている。
畳み込みニューラルネットワーク(convolutional neural network, cnn)に基づく手法を開発し, 咬合, 照明変化, スケールなどの重要な課題に対処するため, 車両の再同定を行う。
コンピュータビジョンにおけるトランスフォーマーの進歩は、さらに性能を高めるために再同定プロセスを探求する機会を開いた。
本稿では,CCTVカメラで車両を再識別するためのフレームワークを開発した。
再同定を行うため,提案手法はCNNと変圧器モデルを用いて学習した車両表現を融合する。
このフレームワークは、CCTVカメラ20台で観測された81のユニークな車両識別を含むデータセットでテストされている。
実験の結果、融合車両の再識別フレームワークは61.73%のmAPが得られるが、これはスタンドアロンのCNNやトランスフォーマーモデルと比較してかなり良い。
関連論文リスト
- Passenger hazard perception based on EEG signals for highly automated driving vehicles [23.322910031715583]
本研究は,乗用車間相互作用の神経機構を解明し,乗用車認知モデル(PCM)と乗用車脳波復号戦略(PEDS)の開発に繋がるものである。
Central to PEDSは、空間的および時間的脳波データパターンをキャプチャする新しい畳み込みリカレントニューラルネットワーク(CRNN)である。
我々の研究は、事前観測された脳波データの予測能力、危険シナリオの検出の強化、より安全な自動運転車のためのネットワーク駆動型フレームワークの提供を強調した。
論文 参考訳(メタデータ) (2024-08-29T07:32:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Spatial-temporal Vehicle Re-identification [3.7748602100709534]
信頼性の高いカメラネットワークトポロジを推定する空間時空間車両ReIDフレームワークを提案する。
提案手法に基づいて,公開データセット(VeRi776)において,ランク1の精度の99.64%向上した。
論文 参考訳(メタデータ) (2023-09-03T13:07:38Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Vehicle Re-identification Method Based on Vehicle Attribute and Mutual
Exclusion Between Cameras [7.028589578216994]
Re-ID結果を再ランクする車両属性ガイド法を提案する。
車両の配向や車両のブランドなどに使われる。
CVPR 2021 AI City Challengeでは, 63.73%のmAPと76.61%の精度を達成した。
論文 参考訳(メタデータ) (2021-04-30T10:11:46Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Vehicle Re-Identification Based on Complementary Features [18.633637024602795]
車両のRe-IDの目的は、複数のカメラにまたがる同じ車両を回収することである。
これは、Intelligent Traffic System(ITS)とスマートシティに多大な貢献をする可能性がある。
提案手法は,異なるネットワークから抽出した特徴を融合させて,これらのネットワークの利点を生かし,補完的な特徴を実現することである。
論文 参考訳(メタデータ) (2020-05-09T15:24:51Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。