論文の概要: I see you: A Vehicle-Pedestrian Interaction Dataset from Traffic
Surveillance Cameras
- arxiv url: http://arxiv.org/abs/2211.09342v1
- Date: Thu, 17 Nov 2022 05:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:15:55.343776
- Title: I see you: A Vehicle-Pedestrian Interaction Dataset from Traffic
Surveillance Cameras
- Title(参考訳): i see you: 交通監視カメラによる車とペデストリアンのインタラクションデータセット
- Authors: Hanan Quispe, Jorshinno Sumire, Patricia Condori, Edwin Alvarez and
Harley Vera
- Abstract要約: ほぼ事故のシナリオにおける軌跡データ不足に対処する、新たな車両と歩行者のインタラクションデータセットです。
カスコ・ペルーの7つの交差点で170件近い事故が発生しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of autonomous vehicles arises new challenges in urban traffic
scenarios where vehicle-pedestrian interactions are frequent e.g. vehicle
yields to pedestrians, pedestrian slows down due approaching to the vehicle.
Over the last years, several datasets have been developed to model these
interactions. However, available datasets do not cover near-accident scenarios
that our dataset covers. We introduce I see you, a new vehicle-pedestrian
interaction dataset that tackles the lack of trajectory data in near-accident
scenarios using YOLOv5 and camera calibration methods. I see you consist of 170
near-accident occurrences in seven intersections in Cusco-Peru. This new
dataset and pipeline code are available on Github.
- Abstract(参考訳): 自動運転車の開発は、自動車と歩行者の相互作用が頻繁に歩行者に渡される都市交通のシナリオにおいて、新たな課題を引き起こしている。
過去数年間、これらの相互作用をモデル化するいくつかのデータセットが開発されてきた。
しかし、利用可能なデータセットは、私たちのデータセットがカバーするアクシデントに近いシナリオをカバーしません。
YOLOv5とカメラキャリブレーション法を用いたほぼ事故シナリオにおける軌跡データ不足に対処する,新たな車両と歩行者のインタラクションデータセットを紹介します。
クスコ・ペルーの7つの交差点で170のアクシデントが発生しています。
この新しいデータセットとパイプラインコードは、githubから入手できる。
関連論文リスト
- Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - METEOR: A Massive Dense & Heterogeneous Behavior Dataset for Autonomous
Driving [42.69638782267657]
本稿では、インドにおける非構造化シナリオにおけるトラフィックパターンをキャプチャする、新しい複雑なトラフィックデータセットMETEORを提案する。
METEORは1000分以上のビデオクリップと、エゴ車軌道を持つ200万以上の注釈付きフレームと、周囲の車両や交通機関のための1300万以上のバウンディングボックスで構成されている。
我々は,オブジェクト検出と行動予測アルゴリズムの性能を評価するために,新しいデータセットを用いた。
論文 参考訳(メタデータ) (2021-09-16T01:01:55Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Interaction Detection Between Vehicles and Vulnerable Road Users: A Deep
Generative Approach with Attention [9.442285577226606]
交差点における相互作用検出のための条件生成モデルを提案する。
道路利用者の行動の連続性に関する膨大な映像データを自動解析することを目的としています。
モデルの有効性は実世界のデータセットでテストすることによって検証された。
論文 参考訳(メタデータ) (2021-05-09T10:03:55Z) - Graph-SIM: A Graph-based Spatiotemporal Interaction Modelling for
Pedestrian Action Prediction [10.580548257913843]
本稿では,歩行者の横断行動を予測するための新しいグラフベースモデルを提案する。
既存のnuScenesデータセットに対して、3Dバウンディングボックスと歩行者行動アノテーションを提供する新しいデータセットを紹介します。
提案手法は,既存の手法と比較して,様々な指標を15%以上改善し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-12-03T18:28:27Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。