論文の概要: Modeling and Measuring Redundancy in Multisource Multimodal Data for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.06544v1
- Date: Fri, 06 Mar 2026 18:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.395334
- Title: Modeling and Measuring Redundancy in Multisource Multimodal Data for Autonomous Driving
- Title(参考訳): 自動運転のためのマルチソースマルチモーダルデータのモデリングと冗長性の測定
- Authors: Yuhan Zhou, Mehri Sattari, Haihua Chen, Kewei Sha,
- Abstract要約: 次世代自動運転車(AV)は、リアルタイム意思決定をサポートするために、大量のマルチソースおよびマルチモーダル(M2$)データに依存している。
この研究は、AVデータセットの基本的なDQ問題として冗長性に焦点を当てている。
- 参考スコア(独自算出の注目度): 3.5933669310966816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Next-generation autonomous vehicles (AVs) rely on large volumes of multisource and multimodal ($M^2$) data to support real-time decision-making. In practice, data quality (DQ) varies across sources and modalities due to environmental conditions and sensor limitations, yet AV research has largely prioritized algorithm design over DQ analysis. This work focuses on redundancy as a fundamental but underexplored DQ issue in AV datasets. Using the nuScenes and Argoverse 2 (AV2) datasets, we model and measure redundancy in multisource camera data and multimodal image-LiDAR data, and evaluate how removing redundant labels affects the YOLOv8 object detection task. Experimental results show that selectively removing redundant multisource image object labels from cameras with shared fields of view improves detection. In nuScenes, mAP${50}$ gains from $0.66$ to $0.70$, $0.64$ to $0.67$, and from $0.53$ to $0.55$, on three representative overlap regions, while detection on other overlapping camera pairs remains at the baseline even under stronger pruning. In AV2, $4.1$-$8.6\%$ of labels are removed, and mAP${50}$ stays near the $0.64$ baseline. Multimodal analysis also reveals substantial redundancy between image and LiDAR data. These findings demonstrate that redundancy is a measurable and actionable DQ factor with direct implications for AV performance. This work highlights the role of redundancy as a data quality factor in AV perception and motivates a data-centric perspective for evaluating and improving AV datasets. Code, data, and implementation details are publicly available at: https://github.com/yhZHOU515/RedundancyAD
- Abstract(参考訳): 次世代自動運転車(AV)は、リアルタイム意思決定をサポートするために、大量のマルチソースおよびマルチモーダル(M^2$)データに依存している。
実際には、データ品質(DQ)は、環境条件やセンサーの制限により、ソースやモダリティによって異なるが、AV研究はDQ分析よりもアルゴリズム設計を優先している。
この研究は、AVデータセットの基本的なDQ問題として冗長性に焦点を当てている。
nuScenesとArgoverse 2(AV2)データセットを用いて、マルチソースカメラデータとマルチモーダル画像-LiDARデータの冗長性をモデル化し、冗長ラベルの除去がYOLOv8オブジェクト検出タスクに与える影響を評価する。
実験の結果,共有視野のカメラから冗長なマルチソース画像オブジェクトラベルを選択的に除去することで,検出が改善された。
nuScenesでは、mAP${50}$は$0.66$から$0.70$、$0.64$から$0.67$、$0.53$から$0.55$となる。
AV2では、$4.1$-$8.6\%のラベルが取り除かれ、mAP${50}$は0.64$のベースラインの近くに留まる。
マルチモーダル解析により、画像とLiDARデータの相当な冗長性が明らかになる。
これらの結果から, 冗長性は測定可能かつ作用可能なDQ因子であり, AV性能に直接的な影響を及ぼすことが明らかとなった。
この研究は、AV知覚におけるデータ品質要因としての冗長性の役割を強調し、AVデータセットの評価と改善のためのデータ中心の視点を動機付けている。
コード、データ、実装の詳細は、https://github.com/yhZHOU515/RedundancyADで公開されている。
関連論文リスト
- A Novel Multi-layer Task-centric and Data Quality Framework for Autonomous Driving [1.8843687952462742]
次世代の自動運転車(AV)は、大量のマルチソースおよびマルチモーダルデータに依存している。
異なるソースとモダリティのデータ品質(DQ)は、通常、予期せぬ環境要因やセンサーの問題によって変化する。
本稿では,データ層,DQ層,タスク層,アプリケーション層,目標層という5つのレイヤから構成される,タスク中心でデータ品質の高い新しいVaseフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T17:05:50Z) - Multimodal 3D Object Detection on Unseen Domains [37.142470149311904]
ドメイン適応アプローチは、この問題に対処するために、テストディストリビューションから無注釈のサンプルへのアクセスを前提とします。
マルチモーダル融合および3次元オブジェクト検出のための教師付きコントラスト学習フレームワークであるCLIX$text3D$を提案する。
CLIX$text3D$は、複数のデータセットシフト下での最先端のドメイン一般化性能を示す。
論文 参考訳(メタデータ) (2024-04-17T21:47:45Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - A$^2$-UAV: Application-Aware Content and Network Optimization of
Edge-Assisted UAV Systems [12.847650904294033]
エッジで正しく実行されるタスク数を最適化する新しいA$2$-UAVフレームワークを提案する。
A$2$-TPPは、ディープニューラルネットワーク(DNN)の精度と画像圧縮の関係を考慮している。
4機のDJI Mavic Air 2 UAVによるテストベッドを用いた実世界の実験により,A$2$-TPPを広く評価した。
論文 参考訳(メタデータ) (2023-01-16T11:17:32Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - SyNet: An Ensemble Network for Object Detection in UAV Images [13.198689566654107]
本稿では,マルチステージ方式とシングルステージ方式を組み合わせたアンサンブルネットワークであるSyNetを提案する。
ビルディングブロックとして、センシング戦略とともに、プリトレーニング特徴抽出器を備えたセンタネットおよびカスケードr−cnnを利用する。
提案手法により得られた技術成果を2つの異なるデータセットで報告する。
論文 参考訳(メタデータ) (2020-12-23T21:38:32Z) - Exploring Data Augmentation for Multi-Modality 3D Object Detection [82.9988604088494]
ポイントクラウドとイメージに基づくマルチモダリティメソッドは、ポイントクラウドのみを使用するアプローチよりも、わずかに良いか、時には悪いだけである。
トランスフォーメーションフローと呼ばれるパイプラインを提案し、トランスフォーメーションのリバースとリプレイによってシングルモードとマルチモードのデータ拡張のギャップを埋める。
また,本手法は第3回nuScenes検出チャレンジでPKL賞を受賞した。
論文 参考訳(メタデータ) (2020-12-23T15:23:16Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。