論文の概要: DeepSense-V2V: A Vehicle-to-Vehicle Multi-Modal Sensing, Localization, and Communications Dataset
- arxiv url: http://arxiv.org/abs/2406.17908v1
- Date: Tue, 25 Jun 2024 19:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 15:27:11.627677
- Title: DeepSense-V2V: A Vehicle-to-Vehicle Multi-Modal Sensing, Localization, and Communications Dataset
- Title(参考訳): DeepSense-V2V:車間マルチモーダルセンシング、ローカライゼーション、通信データセット
- Authors: Joao Morais, Gouranga Charan, Nikhil Srinivas, Ahmed Alkhateeb,
- Abstract要約: 本研究は、mmWave車両間通信を研究するための、最初の大規模マルチモーダルデータセットを示す。
このデータセットには、日夜120kmの都市間および農村部で運転する車両が含まれており、最高速度は時速100kmである。
トラックから自転車まで、あらゆる画像から100万件以上の物体が検出されました。
- 参考スコア(独自算出の注目度): 12.007501768974281
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High data rate and low-latency vehicle-to-vehicle (V2V) communication are essential for future intelligent transport systems to enable coordination, enhance safety, and support distributed computing and intelligence requirements. Developing effective communication strategies, however, demands realistic test scenarios and datasets. This is important at the high-frequency bands where more spectrum is available, yet harvesting this bandwidth is challenged by the need for direction transmission and the sensitivity of signal propagation to blockages. This work presents the first large-scale multi-modal dataset for studying mmWave vehicle-to-vehicle communications. It presents a two-vehicle testbed that comprises data from a 360-degree camera, four radars, four 60 GHz phased arrays, a 3D lidar, and two precise GPSs. The dataset contains vehicles driving during the day and night for 120 km in intercity and rural settings, with speeds up to 100 km per hour. More than one million objects were detected across all images, from trucks to bicycles. This work further includes detailed dataset statistics that prove the coverage of various situations and highlights how this dataset can enable novel machine-learning applications.
- Abstract(参考訳): 高データレートと低遅延車両間通信は、分散コンピューティングとインテリジェンス要件の調整、安全性の向上、およびサポートを実現するために、将来のインテリジェントトランスポートシステムにとって不可欠である。
しかし、効果的なコミュニケーション戦略を開発するには、現実的なテストシナリオとデータセットが必要である。
これは、より多くのスペクトルが利用できる高周波帯域において重要であるが、この帯域幅の取得は、方向伝達の必要性と、遮断に対する信号伝搬の感度によって困難である。
本研究は、mmWave車両間通信を研究するための、最初の大規模マルチモーダルデータセットを示す。
これは、360度カメラ、4つのレーダー、4つの60GHz位相アレイ、3Dライダー、2つの正確なGPSからのデータを含む2台のテストベッドを提供する。
このデータセットには、日夜120kmの都市間および農村部で運転する車両が含まれており、最高速度は時速100kmである。
トラックから自転車まで、あらゆる画像から100万件以上の物体が検出されました。
この研究には、さまざまな状況のカバレッジを証明する詳細なデータセット統計が含まれており、このデータセットが新しい機械学習アプリケーションを実現する方法を強調している。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - RoboSense: Large-scale Dataset and Benchmark for Multi-sensor Low-speed Autonomous Driving [62.5830455357187]
本稿では,3種類のセンサ(Camera, LiDAR, Fisheye)をベースとしたマルチモーダルデータ収集プラットフォームを構築する。
RoboSenseという名前の大規模なマルチセンサーデータセットが構築されており、ニアフィールドシーンの理解を容易にする。
RoboSenseは、1133K以上の同期データと1.4Mの3DバウンディングボックスとIDをフル360円のビューに格納し、7.6Kの時間シーケンスに216Kのトラジェクトリを形成する。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - HawkRover: An Autonomous mmWave Vehicular Communication Testbed with
Multi-sensor Fusion and Deep Learning [26.133092114053472]
接続された自動走行車(CAV)は、私たちの日常生活を変えるための変革的な技術になっています。
現在、ミリ波(mmWave)バンドは有望なCAV接続ソリューションとして認識されている。
高いデータレートを提供できるが、その実現には、mWave信号の伝搬やモビリティ管理の際の高減衰など、多くの課題に直面している。
本研究は,mmWave信号と他のセンサデータを収集し,車載通信を容易にする自律的かつ低コストなテストベッドを提案する。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Berlin V2X: A Machine Learning Dataset from Multiple Vehicles and Radio
Access Technologies [56.77079930521082]
我々は,MLに基づく多種多様な研究への道を開くための詳細な測定キャンペーンを実施してきた。
得られたデータセットは、携帯電話(と2つの異なるオペレーター)とサイドリンク無線アクセス技術の両方のために、様々な都市環境にまたがるGPS位置の無線測定を提供する。
私たちは、MLが克服しなければならない課題と、MLが活用できる機能について、データの初期分析を提供しています。
論文 参考訳(メタデータ) (2022-12-20T15:26:39Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。