論文の概要: Collaborative Perception Datasets for Autonomous Driving: A Review
- arxiv url: http://arxiv.org/abs/2504.12696v1
- Date: Thu, 17 Apr 2025 06:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 22:30:07.489202
- Title: Collaborative Perception Datasets for Autonomous Driving: A Review
- Title(参考訳): 自動運転のための協調的知覚データセット: レビュー
- Authors: Naibang Wang, Deyong Shang, Yan Gong, Xiaoxi Hu, Ziying Song, Lei Yang, Yuhan Huang, Xiaoyu Wang, Jianli Lu,
- Abstract要約: 共同認識は、自律運転における認識精度、安全性、堅牢性を高める可能性から、学術や産業からの関心が高まりつつある。
多くの協調認識データセットが登場し、協調パラダイム、センサー構成、データソース、アプリケーションシナリオが変化している。
協調認識データセットに焦点を当てた最初の包括的なレビューとして、この作業は、多次元的な観点から既存のリソースをレビューし、比較する。
- 参考スコア(独自算出の注目度): 9.498615656347264
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Collaborative perception has attracted growing interest from academia and industry due to its potential to enhance perception accuracy, safety, and robustness in autonomous driving through multi-agent information fusion. With the advancement of Vehicle-to-Everything (V2X) communication, numerous collaborative perception datasets have emerged, varying in cooperation paradigms, sensor configurations, data sources, and application scenarios. However, the absence of systematic summarization and comparative analysis hinders effective resource utilization and standardization of model evaluation. As the first comprehensive review focused on collaborative perception datasets, this work reviews and compares existing resources from a multi-dimensional perspective. We categorize datasets based on cooperation paradigms, examine their data sources and scenarios, and analyze sensor modalities and supported tasks. A detailed comparative analysis is conducted across multiple dimensions. We also outline key challenges and future directions, including dataset scalability, diversity, domain adaptation, standardization, privacy, and the integration of large language models. To support ongoing research, we provide a continuously updated online repository of collaborative perception datasets and related literature: https://github.com/frankwnb/Collaborative-Perception-Datasets-for-Autonomous-Driving.
- Abstract(参考訳): 共同認識は、マルチエージェント情報融合による自律運転における認識精度、安全性、堅牢性を高める可能性から、学術や産業からの関心が高まりつつある。
車両間通信(V2X)の進歩に伴い、多くの協調認識データセットが出現し、協調パラダイム、センサー構成、データソース、アプリケーションシナリオが変化している。
しかし、体系的な要約と比較分析が欠如していることは、効果的な資源利用とモデル評価の標準化を妨げている。
協調認識データセットに焦点を当てた最初の包括的なレビューとして、この作業は、多次元的な観点から既存のリソースをレビューし、比較する。
我々は、協調パラダイムに基づいてデータセットを分類し、データソースとシナリオを調べ、センサーのモダリティとサポートタスクを分析する。
詳細な比較分析は複数の次元にわたって行われる。
また、データセットのスケーラビリティ、多様性、ドメイン適応、標準化、プライバシ、大規模言語モデルの統合など、主要な課題と今後の方向性についても述べています。
継続的な研究を支援するため、共同認識データセットと関連する文献を継続的に更新したオンラインリポジトリを提供する。
関連論文リスト
- A Graph-Based Model for Vehicle-Centric Data Sharing Ecosystem [4.532960304032296]
我々は、現代の車両が異なる当事者間のデータ交換をどのように扱うかについての洞察を得るために、概念グラフベースのモデルを開発する。
車両関連データ共有に関するプライバシーに関する洞察を発見することの有用性と有効性を示すために、2つの現実的な例が開発された。
論文 参考訳(メタデータ) (2024-10-30T10:52:19Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - CoPeD-Advancing Multi-Robot Collaborative Perception: A Comprehensive Dataset in Real-World Environments [8.177157078744571]
本稿では,先駆的で包括的な実世界のマルチロボット協調認識データセットを提案する。
生のセンサー入力、ポーズ推定、オプションのハイレベル認識アノテーションが特徴である。
この研究は、マルチロボット設定におけるマルチモーダル協調認識を通して、ハイレベルなシーン理解の潜在的研究を解き放つだろうと考えている。
論文 参考訳(メタデータ) (2024-05-23T15:59:48Z) - Collaborative Perception Datasets in Autonomous Driving: A Survey [0.0]
この論文は様々なデータセットを体系的に分析し、多様性、センサーの設定、品質、公開可用性、下流タスクへの適用性といった側面に基づいて比較する。
データセット開発におけるプライバシとセキュリティの懸念に対処することの重要性は、データ共有とデータセット生成に関して強調されている。
論文 参考訳(メタデータ) (2024-04-22T09:36:17Z) - UniTraj: A Unified Framework for Scalable Vehicle Trajectory Prediction [93.77809355002591]
さまざまなデータセット、モデル、評価基準を統一する包括的なフレームワークであるUniTrajを紹介する。
我々は広範な実験を行い、他のデータセットに転送するとモデルの性能が大幅に低下することがわかった。
これらの知見を説明するために,データセットの特徴に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-22T10:36:50Z) - A Survey on Autonomous Driving Datasets: Statistics, Annotation Quality, and a Future Outlook [24.691922611156937]
複数の視点から265個の自律走行データセットを網羅的に検討した。
我々は、新しいデータセットを作成するためのガイドとしても使えるデータセットの影響を評価するための新しい指標を紹介します。
我々は、将来の自動運転データセットの現在の課題と開発動向について論じる。
論文 参考訳(メタデータ) (2024-01-02T22:35:33Z) - Rank2Tell: A Multimodal Driving Dataset for Joint Importance Ranking and
Reasoning [19.43430577960824]
本稿では,重要度をランク付けするマルチモーダル・エゴ中心のデータセットである Rank2Tell を紹介し,その重要性の理由を述べる。
クローズドでオープンな様々な視覚的質問応答を用いて、複雑な交通シナリオにおいて、データセットは様々な重要なオブジェクトの様々な意味、空間的、時間的、関係的な属性の密接なアノテーションを提供する。
論文 参考訳(メタデータ) (2023-09-12T20:51:07Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Quantifying & Modeling Multimodal Interactions: An Information
Decomposition Framework [89.8609061423685]
本稿では,入力モーダル性と出力タスクを関連付けた冗長性,特異性,シナジーの度合いを定量化する情報理論手法を提案する。
PID推定を検証するために、PIDが知られている合成データセットと大規模マルチモーダルベンチマークの両方で広範な実験を行う。
本研究では,(1)マルチモーダルデータセット内の相互作用の定量化,(2)マルチモーダルモデルで捉えた相互作用の定量化,(3)モデル選択の原理的アプローチ,(4)実世界のケーススタディの3つにその有用性を示す。
論文 参考訳(メタデータ) (2023-02-23T18:59:05Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Multimodal Image Synthesis and Editing: The Generative AI Era [131.9569600472503]
マルチモーダル画像合成と編集は 近年 ホットな研究テーマになっている。
近年のマルチモーダル画像合成・編集の進歩を包括的に理解している。
ベンチマークデータセットと評価指標と,それに対応する実験結果について述べる。
論文 参考訳(メタデータ) (2021-12-27T10:00:16Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。