論文の概要: Lane Change Classification and Prediction with Action Recognition
Networks
- arxiv url: http://arxiv.org/abs/2208.11650v1
- Date: Wed, 24 Aug 2022 16:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:05:39.375504
- Title: Lane Change Classification and Prediction with Action Recognition
Networks
- Title(参考訳): 行動認識ネットワークを用いた車線変化の分類と予測
- Authors: Kai Liang, Jun Wang and Abhir Bhalerao
- Abstract要約: レーン変更認識のための2つの動作認識手法を含むエンドツーエンドフレームワークを提案する。
提案手法は,PreVENTIONデータセットのRGBビデオデータのみを用いて,最適なレーン変更分類結果を得る。
本稿では,動きの手がかりを抽出する手法を提案する。
- 参考スコア(独自算出の注目度): 8.346356846644674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating lane change intentions of surrounding vehicles is crucial for
efficient and safe driving decision making in an autonomous driving system.
Previous works often adopt physical variables such as driving speed,
acceleration and so forth for lane change classification. However, physical
variables do not contain semantic information. Although 3D CNNs have been
developing rapidly, the number of methods utilising action recognition models
and appearance feature for lane change recognition is low, and they all require
additional information to pre-process data. In this work, we propose an
end-to-end framework including two action recognition methods for lane change
recognition, using video data collected by cameras. Our method achieves the
best lane change classification results using only the RGB video data of the
PREVENTION dataset. Class activation maps demonstrate that action recognition
models can efficiently extract lane change motions. A method to better extract
motion clues is also proposed in this paper.
- Abstract(参考訳): 車両の車線変更の意図を予測することは、自律運転システムにおいて効率的かつ安全な運転意思決定に不可欠である。
以前の研究では、車線変更分類に駆動速度、加速度などの物理変数をしばしば採用していた。
しかし、物理変数には意味情報が含まれない。
3d cnnは急速に発展してきたが、車線変更認識にアクション認識モデルと外観特徴を利用する手法は少なく、いずれも前処理データの追加情報を必要とする。
本研究では,カメラで収集した映像データを用いて,車線変化認識のための2つの行動認識手法を含むエンドツーエンドフレームワークを提案する。
提案手法は,PreVENTIONデータセットのRGBビデオデータのみを用いて,最適なレーン変更分類結果を得る。
クラスアクティベーションマップは、行動認識モデルが車線変化運動を効率的に抽出できることを示す。
動きの手がかりをよりよく抽出する手法も提案されている。
関連論文リスト
- Semantic Map Learning of Traffic Light to Lane Assignment based on
Motion Data [12.853720506838043]
自動運転車は通常、車線への信号の割り当てに関する情報を含むHigh Definition (HD)マップに依存している。
これらの問題を解決するために,交通信号の状態と対応する車両交通の動作パターンから課題を導出する。
Lyft Level 5データセット用の公開APIによって、研究者は独自のアプローチを開発し、評価することができます。
論文 参考訳(メタデータ) (2023-09-26T09:42:21Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - RONELDv2: A faster, improved lane tracking method [1.3965477771846408]
車線検出は、自動運転車や車線出発警報システムにおいて、制御システムの不可欠な部分である。
本稿では,改良された軽量車線検出手法 RONELDv2を提案する。
提案した改良モデルを用いた実験では、異なるデータセットとディープラーニングモデル間でレーン検出精度が一貫した向上を示した。
論文 参考訳(メタデータ) (2022-02-26T13:12:09Z) - Video action recognition for lane-change classification and prediction
of surrounding vehicles [12.127050913280925]
レーン変更認識と予測タスクは、ビデオアクション認識問題として提示される。
コンテキストと観測地平線がパフォーマンスに与える影響を調査し、異なる予測地平線を分析します。
その結果,これらの手法が将来の車両の車線変化を予測できる可能性を明らかにした。
論文 参考訳(メタデータ) (2021-01-13T13:25:00Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。