論文の概要: VTrackIt: A Synthetic Self-Driving Dataset with Infrastructure and
Pooled Vehicle Information
- arxiv url: http://arxiv.org/abs/2207.11146v1
- Date: Fri, 15 Jul 2022 16:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:20:21.652317
- Title: VTrackIt: A Synthetic Self-Driving Dataset with Infrastructure and
Pooled Vehicle Information
- Title(参考訳): vtrackit: インフラストラクチャと車両情報プールを備えた合成自動運転データセット
- Authors: Mayuresh Savargaonkar and Abdallah Chehade
- Abstract要約: インテリジェントなインフラストラクチャとプールされた車両情報を備えた,初めての総合的な合成データセットであるVTrackItを紹介した。
また、そのような情報を考慮した軌道予測のための最初の深層学習モデル(InfraGAN)についても紹介する。
InfraGANを用いた実験により、VTrackItが提供する包括的情報により、リスクの高いエッジケースの数が減少することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence solutions for Autonomous Vehicles (AVs) have been
developed using publicly available datasets such as Argoverse, ApolloScape,
Level5, and NuScenes. One major limitation of these datasets is the absence of
infrastructure and/or pooled vehicle information like lane line type, vehicle
speed, traffic signs, and intersections. Such information is necessary and not
complementary to eliminating high-risk edge cases. The rapid advancements in
Vehicle-to-Infrastructure and Vehicle-to-Vehicle technologies show promise that
infrastructure and pooled vehicle information will soon be accessible in near
real-time. Taking a leap in the future, we introduce the first comprehensive
synthetic dataset with intelligent infrastructure and pooled vehicle
information for advancing the next generation of AVs, named VTrackIt. We also
introduce the first deep learning model (InfraGAN) for trajectory predictions
that considers such information. Our experiments with InfraGAN show that the
comprehensive information offered by VTrackIt reduces the number of high-risk
edge cases. The VTrackIt dataset is available upon request under the Creative
Commons CC BY-NC-SA 4.0 license at http://vtrackit.irda.club.
- Abstract(参考訳): 自律走行車(AV)のための人工知能ソリューションは、Argoverse、ApolloScape、Level5、NuScenesなどの公開データセットを使用して開発されている。
これらのデータセットの大きな制限の1つは、車線タイプ、車速、交通標識、交差点などのインフラストラクチャーおよび/またはプールされた車両情報がないことである。
このような情報は必要であり、リスクの高いエッジケースを排除するために補完するものではない。
車両・車間構造と車両・車間構造技術の急速な進歩は、インフラとプールされた車両情報がほぼリアルタイムでアクセスできるようになることを約束している。
将来的には、インテリジェントなインフラストラクチャとプールされた車両情報を備えた、初めての総合的な合成データセットを導入して、次世代のAV(VTrackIt)を前進させる。
また、そのような情報を考慮した軌道予測のための最初の深層学習モデル(InfraGAN)を導入する。
InfraGANを用いた実験により、VTrackItが提供する包括的情報により、リスクの高いエッジケースの数が減少することが示された。
VTrackItデータセットは、Creative Commons CC BY-NC-SA 4.0ライセンスの下で、http://vtrackit.irda.club.comで提供されている。
関連論文リスト
- A V2X-based Privacy Preserving Federated Measuring and Learning System [0.0]
本稿では,V2V(Var-to-Vehicle)通信を介して,同志の車両にリアルタイムなデータを提供するフェデレート計測学習システムを提案する。
また,交通ネットワークの予測モデルを作成するために,車両ネットワーク(V2N)リンク上で連合学習スキームを運用している。
その結果,提案方式では学習性能が向上し,アグリゲータサーバ側での盗聴を防止することができた。
論文 参考訳(メタデータ) (2024-01-24T23:11:11Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Extended vehicle energy dataset (eVED): an enhanced large-scale dataset
for deep learning on vehicle trip energy consumption [35.496268842033864]
eVEDデータセットは、学習エンジンに供給するための正確で豊富な媒体を提供することができる。
我々は、元のVEDデータ内のすべてのGPSトレースレコードを校正し、VEDデータを地理情報システム(QGIS)、Overpass API、Open Street Map API、Google Maps APIから抽出した属性に関連付ける。
我々は,eVEDデータセットとデータ豊か化ソフトウェアが,将来の技術開発において学術的・産業的な自動車部門に役立てられることを期待する。
論文 参考訳(メタデータ) (2022-03-16T13:56:36Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with
Vehicle-to-Vehicle Communication [13.633468133727]
車両から車両への認識のための大規模なオープン・シミュレート・データセットを提示する。
70以上の興味深いシーン、11,464フレーム、232,913個の注釈付き3D車両のバウンディングボックスを含んでいる。
論文 参考訳(メタデータ) (2021-09-16T00:52:41Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。