論文の概要: Pedestrian Environment Model for Automated Driving
- arxiv url: http://arxiv.org/abs/2308.09080v1
- Date: Thu, 17 Aug 2023 16:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 16:07:39.529296
- Title: Pedestrian Environment Model for Automated Driving
- Title(参考訳): 自動走行のための歩行者環境モデル
- Authors: Adrian Holzbock, Alexander Tsaregorodtsev, and Vasileios Belagiannis
- Abstract要約: 歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
- 参考スコア(独自算出の注目度): 54.16257759472116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Besides interacting correctly with other vehicles, automated vehicles should
also be able to react in a safe manner to vulnerable road users like
pedestrians or cyclists. For a safe interaction between pedestrians and
automated vehicles, the vehicle must be able to interpret the pedestrian's
behavior. Common environment models do not contain information like body poses
used to understand the pedestrian's intent. In this work, we propose an
environment model that includes the position of the pedestrians as well as
their pose information. We only use images from a monocular camera and the
vehicle's localization data as input to our pedestrian environment model. We
extract the skeletal information with a neural network human pose estimator
from the image. Furthermore, we track the skeletons with a simple tracking
algorithm based on the Hungarian algorithm and an ego-motion compensation. To
obtain the 3D information of the position, we aggregate the data from
consecutive frames in conjunction with the vehicle position. We demonstrate our
pedestrian environment model on data generated with the CARLA simulator and the
nuScenes dataset. Overall, we reach a relative position error of around 16% on
both datasets.
- Abstract(参考訳): 自動運転車は、他の車両と正しく対話するだけでなく、歩行者やサイクリストのような脆弱な道路利用者に安全な方法で反応できるはずだ。
歩行者と自動走行車の安全な相互作用のために、車両は歩行者の振る舞いを解釈できなければならない。
一般的な環境モデルは、歩行者の意図を理解するために使われるボディポーズのような情報を含まない。
本研究では,歩行者の位置とポーズ情報を含む環境モデルを提案する。
歩行者環境モデルへの入力として,単眼カメラからの画像と車両のローカライゼーションデータのみを使用する。
画像から、ニューラルネットワークによる人物ポーズ推定器を用いて骨格情報を抽出する。
さらに,ハンガリーのアルゴリズムとエゴモーション補償に基づく単純な追跡アルゴリズムを用いて,骨格の追跡を行う。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
CARLAシミュレータとnuScenesデータセットで生成されたデータに基づいて歩行者環境モデルを実証する。
全体として、両方のデータセットで相対的な位置誤差は約16%に達する。
関連論文リスト
- ViFi-Loc: Multi-modal Pedestrian Localization using GAN with
Camera-Phone Correspondences [7.953401800573514]
本稿では,歩行者のより正確な位置推定を行うために,ジェネレーティブ・アドバイサル・ネットワークアーキテクチャを提案する。
訓練中は、歩行者のカメラと電話のデータ通信のリンクを学習する。
GANは5つの屋外シーンにまたがって1~2mの局所化誤差で3次元座標を生成する。
論文 参考訳(メタデータ) (2022-11-22T05:27:38Z) - Decentralized Vehicle Coordination: The Berkeley DeepDrive Drone Dataset [103.35624417260541]
分散車両調整は、未整備の道路環境において有用である。
我々はバークレーのDeepDrive Droneデータセットを収集し、近くのドライバーが観察する暗黙の「社会的エチケット」を研究する。
このデータセットは、人間のドライバーが採用する分散マルチエージェント計画と、リモートセンシング設定におけるコンピュータビジョンの研究に主に関心がある。
論文 参考訳(メタデータ) (2022-09-19T05:06:57Z) - WatchPed: Pedestrian Crossing Intention Prediction Using Embedded
Sensors of Smartwatch [11.83842808044211]
我々は、モーションセンサデータの統合に基づいて、最初の歩行者意図予測モデルを設計、実装、評価する。
モーションセンサデータを効果的に活用するために,新しい機械学習アーキテクチャを提案する。
本稿では,時間同期型モーションセンサデータと統合した最初の歩行者意図予測データセットを提案する。
論文 参考訳(メタデータ) (2022-08-15T21:27:21Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - RAIST: Learning Risk Aware Traffic Interactions via Spatio-Temporal
Graph Convolutional Networks [19.582873794287632]
道路車両を運転する上で重要な側面は、他の道路利用者と対話し、その意図を評価し、リスクを意識した戦術決定を行うことである。
本稿では,交通グラフに基づくエゴセントリックなビューのための新しいドライビングフレームワークを提案する。
我々は,リスクオブジェクト識別の課題を改善することにより,リスク認識表現を学習する。
論文 参考訳(メタデータ) (2020-11-17T15:49:22Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - Hidden Footprints: Learning Contextual Walkability from 3D Human Trails [70.01257397390361]
現在のデータセットは、人々がどこにいるか、どこにいるかを教えてくれません。
まず、画像間で人の観察を伝播させ、3D情報を利用して、私たちが「隠れ足跡」と呼ぶものを作成することで、有効なラベル付き歩行可能領域の集合を拡大する。
このようなスパースラベルのために設計されたトレーニング戦略を考案し、クラスバランスの分類損失と文脈逆転損失を組み合わせた。
論文 参考訳(メタデータ) (2020-08-19T23:19:08Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z) - The Pedestrian Patterns Dataset [11.193504036335503]
データセットは、異なる特定のタイムスロットから1週間、同じ3つのルートを繰り返すことで収集された。
データセットの目的は、横断するルートに沿って異なる時間に、社会的および歩行者の行動パターンをキャプチャすることである。
論文 参考訳(メタデータ) (2020-01-06T23:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。