論文の概要: EgoSpeed-Net: Forecasting Speed-Control in Driver Behavior from
Egocentric Video Data
- arxiv url: http://arxiv.org/abs/2209.13459v1
- Date: Tue, 27 Sep 2022 15:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:08:56.382112
- Title: EgoSpeed-Net: Forecasting Speed-Control in Driver Behavior from
Egocentric Video Data
- Title(参考訳): EgoSpeed-Net:エゴセントリックビデオデータによる運転行動の速度制御予測
- Authors: Yichen Ding, Ziming Zhang, Yanhua Li, Xun Zhou
- Abstract要約: 本稿では,新しいグラフ畳み込みネットワーク(GCN),すなわちEgoSpeed-Netを提案する。
我々は、時間とともに物体の位置が変わることが、将来の速度変化を予測する上で非常に有用な手がかりとなるという事実に動機づけられている。
本研究では,ホンダ研究所ドライビングデータセットの広範な実験を行い,EgoSpeed-Netの優れた性能を実証する。
- 参考スコア(独自算出の注目度): 24.32406053197066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speed-control forecasting, a challenging problem in driver behavior analysis,
aims to predict the future actions of a driver in controlling vehicle speed
such as braking or acceleration. In this paper, we try to address this
challenge solely using egocentric video data, in contrast to the majority of
works in the literature using either third-person view data or extra vehicle
sensor data such as GPS, or both. To this end, we propose a novel graph
convolutional network (GCN) based network, namely, EgoSpeed-Net. We are
motivated by the fact that the position changes of objects over time can
provide us very useful clues for forecasting the speed change in future. We
first model the spatial relations among the objects from each class, frame by
frame, using fully-connected graphs, on top of which GCNs are applied for
feature extraction. Then we utilize a long short-term memory network to fuse
such features per class over time into a vector, concatenate such vectors and
forecast a speed-control action using a multilayer perceptron classifier. We
conduct extensive experiments on the Honda Research Institute Driving Dataset
and demonstrate the superior performance of EgoSpeed-Net.
- Abstract(参考訳): 速度制御予測(speed-control forecasting)は、ドライバーの行動分析における困難な問題であり、ブレーキや加速などの車両の速度制御におけるドライバーの将来行動を予測することを目的としている。
本稿では,エゴセントリックな映像データのみを用いて,この課題に対処しようとする。文献において,第三者の視点データやgpsなどの余分な車両センサデータを使う場合,あるいはその両方を用いている場合と対照的である。
そこで本研究では,新しいグラフ畳み込みネットワーク(gcn),すなわちegospeed-netを提案する。
我々は、時間とともに物体の位置が変わることが、将来の速度変化を予測する上で非常に有用な手がかりとなるという事実に動機づけられている。
まず,GCNを特徴抽出に適用した全連結グラフを用いて,各クラス,フレーム単位のオブジェクト間の空間関係をモデル化する。
次に, 長時間の短期記憶ネットワークを用いて, クラス毎にその特徴をベクトルに融合し, ベクトルを結合し, 多層パーセプトロン分類器を用いて速度制御動作を予測した。
我々は,ホンダ研究所ドライビングデータセットの広範な実験を行い,EgoSpeed-Netの優れた性能を示す。
関連論文リスト
- Object Detection in Thermal Images Using Deep Learning for Unmanned
Aerial Vehicles [0.9208007322096533]
本研究は,無人航空機が収集した熱画像中の微小物体と微小物体を認識可能なニューラルネットワークモデルを提案する。
背骨はYOLOv5の構造に基づいて開発され、最後にトランスフォーマーエンコーダが使用される。
ネックは、スライドウインドウと変圧器とを組み合わせたBI−FPNブロックを備え、予測ヘッドに入力された情報を増加させる。
論文 参考訳(メタデータ) (2024-02-13T06:40:55Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Robust Autonomous Vehicle Pursuit without Expert Steering Labels [41.168074206046164]
車両追尾用エゴ車両の左右方向と縦方向の動作制御の学習法を提案する。
制御される車両は事前に定義された経路を持たず、安全距離を維持しながら目標車両を追尾するように反応的に適応する。
我々は、CARLAシミュレーターを用いて、幅広い地形における我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-08-16T14:09:39Z) - Interaction-Aware Personalized Vehicle Trajectory Prediction Using
Temporal Graph Neural Networks [8.209194305630229]
既存の手法は主に大規模なデータセットからの一般的な軌道予測に依存している。
本稿では,時間グラフニューラルネットワークを組み込んだ対話型車両軌跡予測手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T20:20:26Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - TransFollower: Long-Sequence Car-Following Trajectory Prediction through
Transformer [44.93030718234555]
本研究では,アテンションベーストランスフォーマーモデルに基づく自動車追従軌道予測モデルを提案する。
上海博物学運転研究会(SH-NDS)から抽出した実世界112,597台の乗用車追跡イベントを用いて、我々のモデルを訓練・試験する。
論文 参考訳(メタデータ) (2022-02-04T07:59:22Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。