論文の概要: Phase Space Reconstruction Network for Lane Intrusion Action Recognition
- arxiv url: http://arxiv.org/abs/2102.11149v1
- Date: Mon, 22 Feb 2021 16:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 01:23:55.330769
- Title: Phase Space Reconstruction Network for Lane Intrusion Action Recognition
- Title(参考訳): レーン侵入行動認識のための位相空間再構成ネットワーク
- Authors: Ruiwen Zhang and Zhidong Deng and Hongsen Lin and Hongchao Lu
- Abstract要約: 本稿では,動作時系列分類のための新しいオブジェクトレベル位相空間再構成ネットワーク(PSRNet)を提案する。
私たちのpsrnetは最高精度98.0%に達し、既存のアクション認識アプローチを30%以上上回っています。
- 参考スコア(独自算出の注目度): 9.351931162958465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a complex road traffic scene, illegal lane intrusion of pedestrians or
cyclists constitutes one of the main safety challenges in autonomous driving
application. In this paper, we propose a novel object-level phase space
reconstruction network (PSRNet) for motion time series classification, aiming
to recognize lane intrusion actions that occur 150m ahead through a monocular
camera fixed on moving vehicle. In the PSRNet, the movement of pedestrians and
cyclists, specifically viewed as an observable object-level dynamic process,
can be reconstructed as trajectories of state vectors in a latent phase space
and further characterized by a learnable Lyapunov exponent-like classifier that
indicates discrimination in terms of average exponential divergence of state
trajectories. Additionally, in order to first transform video inputs into
one-dimensional motion time series of each object, a lane width normalization
based on visual object tracking-by-detection is presented. Extensive
experiments are conducted on the THU-IntrudBehavior dataset collected from real
urban roads. The results show that our PSRNet could reach the best accuracy of
98.0%, which remarkably exceeds existing action recognition approaches by more
than 30%.
- Abstract(参考訳): 複雑な道路交通シーンでは、歩行者やサイクリストの違法レーン侵入は、自動運転アプリケーションの主な安全上の課題の1つです。
本稿では,移動車に固定された単眼カメラを通して150m前方に発生する車線侵入行動を認識することを目的とした,運動時系列分類のための新しいオブジェクトレベル位相空間再構成ネットワーク(PSRNet)を提案する。
PSRNetでは、歩行者やサイクリストの移動は、特に観測可能な対象レベルのダイナミックなプロセスと見なすことができ、潜在位相空間における状態ベクトルの軌跡として再構成することができ、さらに学習可能なリャプノフ指数のような分類器によって特徴付けられる。
さらに、まず映像入力を各物体の1次元モーション時系列に変換するために、視覚物体追跡検出に基づくレーン幅正規化を提示する。
実際の都市道路から収集したTHU-IntrudBehaviorデータセットに対して大規模な実験を行った。
その結果、我々のPSRNetは98.0%の精度に到達し、既存の行動認識アプローチを30%以上上回る結果となった。
関連論文リスト
- Instantaneous Perception of Moving Objects in 3D [86.38144604783207]
周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-05T01:07:24Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - M$^2$DAR: Multi-View Multi-Scale Driver Action Recognition with Vision
Transformer [5.082919518353888]
本稿では,自然主義的運転行動認識と動画のローカライゼーションのためのマルチビュー・マルチスケールフレームワークを提案する。
本システムでは,マルチスケールトランスフォーマーに基づく動作認識ネットワークを特徴とし,頑健な階層表現を学習する。
論文 参考訳(メタデータ) (2023-05-13T02:38:15Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。