論文の概要: BAAI-VANJEE Roadside Dataset: Towards the Connected Automated Vehicle
Highway technologies in Challenging Environments of China
- arxiv url: http://arxiv.org/abs/2105.14370v1
- Date: Sat, 29 May 2021 20:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:57:56.020010
- Title: BAAI-VANJEE Roadside Dataset: Towards the Connected Automated Vehicle
Highway technologies in Challenging Environments of China
- Title(参考訳): BAAI-VANJEEロードサイドデータセット:中国の混在環境におけるコネクテッド・オートモービル・ハイウェイ技術に向けて
- Authors: Deng Yongqiang, Wang Dengjiang, Cao Gang, Ma Bing, Guan Xijia, Wang
Yajun, Liu Jianchao, Fang Yanming, Li Juanjuan
- Abstract要約: このデータセットには2500フレームのLiDARデータ、5000フレームのRGBイメージが含まれ、同時に収集された20%が含まれている。
12のオブジェクトクラス、74Kの3Dオブジェクトアノテーション、105Kの2Dオブジェクトアノテーションを含んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the roadside perception plays an increasingly significant role in the
Connected Automated Vehicle Highway(CAVH) technologies, there are immediate
needs of challenging real-world roadside datasets for bench marking and
training various computer vision tasks such as 2D/3D object detection and
multi-sensor fusion. In this paper, we firstly introduce a challenging
BAAI-VANJEE roadside dataset which consist of LiDAR data and RGB images
collected by VANJEE smart base station placed on the roadside about 4.5m high.
This dataset contains 2500 frames of LiDAR data, 5000 frames of RGB images,
including 20% collected at the same time. It also contains 12 classes of
objects, 74K 3D object annotations and 105K 2D object annotations. By providing
a real complex urban intersections and highway scenes, we expect the
BAAI-VANJEE roadside dataset will actively assist the academic and industrial
circles to accelerate the innovation research and achievement transformation in
the field of intelligent transportation in big data era.
- Abstract(参考訳): 道路サイドの認識は、コネクテッドオートモービル・ハイウェイ(cavh)技術においてますます重要な役割を果たすため、ベンチマーキングや2d/3dオブジェクト検出やマルチセンサー融合といった様々なコンピュータビジョンタスクのトレーニングのための現実世界の道路サイドデータセットに直ちに挑戦する必要がある。
本稿ではまず,道路脇に約4.5mの高さのVANJEEスマート基地局が収集したLiDARデータとRGB画像からなる,挑戦的なBAAI-VANJEEロードサイドデータセットを紹介する。
このデータセットは、2500フレームのlidarデータと5000フレームのrgbイメージを同時に収集した20%を含む。
12のオブジェクトクラス、74Kの3Dオブジェクトアノテーション、105Kの2Dオブジェクトアノテーションを含んでいる。
リアルに複雑な都市交差点と高速道路のシーンを提供することで、BAAI-VANJEEロードサイドデータセットは、ビッグデータ時代のインテリジェント交通分野におけるイノベーション研究と達成の変革を加速するために、学術・産業界を積極的に支援することを期待している。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - ROAD-Waymo: Action Awareness at Scale for Autonomous Driving [17.531603453254434]
ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
論文 参考訳(メタデータ) (2024-11-03T20:46:50Z) - DriveWorld: 4D Pre-trained Scene Understanding via World Models for Autonomous Driving [67.46481099962088]
現在の視覚中心の事前訓練は、通常、2Dまたは3Dのプリテキストタスクに依存し、自律運転の時間的特性を4Dシーン理解タスクとして見落としている。
我々は,マルチカメラ駆動ビデオからテンポラリな方法で事前学習が可能なEmphcentricDriveWorldを紹介した。
DriveWorldは、さまざまな自動運転タスクに関する有望な結果を提供する。
論文 参考訳(メタデータ) (2024-05-07T15:14:20Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - A9-Dataset: Multi-Sensor Infrastructure-Based Dataset for Mobility
Research [1.8139771201780368]
ミュンヘン近郊の道路沿いのセンサインフラをベースとしたA9データセットについて述べる。
データセットには、匿名化された高精度のマルチモーダルセンサと、高解像度のオブジェクトデータが含まれている。
論文 参考訳(メタデータ) (2022-04-13T17:12:16Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。