論文の概要: WatchPed: Pedestrian Crossing Intention Prediction Using Embedded
Sensors of Smartwatch
- arxiv url: http://arxiv.org/abs/2208.07441v1
- Date: Mon, 15 Aug 2022 21:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:56:00.022619
- Title: WatchPed: Pedestrian Crossing Intention Prediction Using Embedded
Sensors of Smartwatch
- Title(参考訳): WatchPed:スマートウォッチの組込みセンサーによる歩行者の交差意図予測
- Authors: Jibran Ali Abbasi, Navid Mohammad Imran, Myounggyu Won
- Abstract要約: 我々は、モーションセンサデータの統合に基づいて、最初の歩行者意図予測モデルを設計、実装、評価する。
モーションセンサデータを効果的に活用するために,新しい機械学習アーキテクチャを提案する。
本稿では,時間同期型モーションセンサデータと統合した最初の歩行者意図予測データセットを提案する。
- 参考スコア(独自算出の注目度): 11.83842808044211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pedestrian intention prediction problem is to estimate whether or not the
target pedestrian will cross the street. State-of-the-art approaches heavily
rely on visual information collected with the front camera of the ego-vehicle
to make a prediction of the pedestrian's intention. As such, the performance of
existing methods significantly degrades when the visual information is not
accurate, e.g., when the distance between the pedestrian and ego-vehicle is
far, or the lighting conditions are not good enough. In this paper, we design,
implement, and evaluate the first pedestrian intention prediction model based
on integration of motion sensor data gathered with the smartwatch (or
smartphone) of the pedestrian. A novel machine learning architecture is
proposed to effectively incorporate the motion sensor data to reinforce the
visual information to significantly improve the performance in adverse
situations where the visual information may be unreliable. We also conduct a
large-scale data collection and present the first pedestrian intention
prediction dataset integrated with time-synchronized motion sensor data. The
dataset consists of a total of 128 video clips with different distances and
varying levels of lighting conditions. We trained our model using the
widely-used JAAD and our own datasets and compare the performance with a
state-of-the-art model. The results demonstrate that our model outperforms the
state-of-the-art method particularly when the distance to the pedestrian is far
(over 70m), and the lighting conditions are not sufficient.
- Abstract(参考訳): 歩行者意図予測問題は、対象歩行者が通りを横断するか否かを推定することである。
最先端のアプローチは、歩行者の意図を予測するために、エゴ車両のフロントカメラで収集された視覚情報に大きく依存している。
このように、既存の手法の性能は、例えば歩行者とエゴ車の距離が遠い場合や、照明条件が十分でない場合など、視覚情報が正確でない場合に著しく低下する。
本稿では,歩行者のスマートウォッチ(またはスマートフォン)に収集したモーションセンサデータをもとに,最初の歩行者意図予測モデルの設計,実装,評価を行う。
視覚情報を効果的に活用して視覚情報を強化し、視覚情報が信頼できないような状況下での性能を大幅に向上させる、新しい機械学習アーキテクチャを提案する。
また,大規模データ収集を行い,時間同期モーションセンサデータと統合した最初の歩行者意図予測データセットを提案する。
データセットは、距離と照明条件の異なる合計128本のビデオクリップで構成されている。
広く使われているJAADと独自のデータセットを使ってモデルをトレーニングし、パフォーマンスを最先端のモデルと比較しました。
その結果, 歩行者までの距離が70m以上あり, 照明条件が十分でない場合には, モデルが最先端の手法に勝ることがわかった。
関連論文リスト
- Snapshot: Towards Application-centered Models for Pedestrian Trajectory Prediction in Urban Traffic Environments [9.025558624315817]
本稿では,交通環境における歩行者を対象とするArgoverse 2に基づくベンチマークを提案する。
Snapshotは、モジュラーでフィードフォワード型ニューラルネットワークで、現在の最先端技術より優れています。
Snapshotをモジュラー自動運転ソフトウェアスタックに統合することで、現実の応用性を示す。
論文 参考訳(メタデータ) (2024-09-03T15:15:49Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - Comparison of Pedestrian Prediction Models from Trajectory and
Appearance Data for Autonomous Driving [13.126949982768505]
歩行者の動きを予測できる能力は、自動運転車にとって重要な能力である。
都市環境では、歩行者は道路エリアに入り、運転のリスクが高い。
本研究は,歩行者予測のための軌跡のみと外観に基づく手法の比較評価を行う。
論文 参考訳(メタデータ) (2023-05-25T11:24:38Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Attentional-GCNN: Adaptive Pedestrian Trajectory Prediction towards
Generic Autonomous Vehicle Use Cases [10.41902340952981]
本稿では,グラフのエッジに注目重みを割り当てることで,歩行者間の暗黙的相互作用に関する情報を集約する,GCNNに基づく新しいアプローチであるAttentional-GCNNを提案する。
提案手法は,10%平均変位誤差 (ADE) と12%最終変位誤差 (FDE) を高速な推論速度で向上することを示す。
論文 参考訳(メタデータ) (2020-11-23T03:13:26Z) - Pedestrian Intention Prediction: A Multi-task Perspective [83.7135926821794]
グローバルに展開するためには、自動運転車は歩行者の安全を保証する必要がある。
本研究は歩行者の意図と視覚状態を共同で予測することでこの問題を解決しようとするものである。
この方法はマルチタスク学習アプローチにおけるリカレントニューラルネットワークである。
論文 参考訳(メタデータ) (2020-10-20T13:42:31Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。