論文の概要: A Novel Multi-layer Task-centric and Data Quality Framework for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2506.17346v1
- Date: Thu, 19 Jun 2025 17:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.367337
- Title: A Novel Multi-layer Task-centric and Data Quality Framework for Autonomous Driving
- Title(参考訳): 自律運転のための多層タスク中心・データ品質フレームワーク
- Authors: Yuhan Zhou, Haihua Chen, Kewei Sha,
- Abstract要約: 次世代の自動運転車(AV)は、大量のマルチソースおよびマルチモーダルデータに依存している。
異なるソースとモダリティのデータ品質(DQ)は、通常、予期せぬ環境要因やセンサーの問題によって変化する。
本稿では,データ層,DQ層,タスク層,アプリケーション層,目標層という5つのレイヤから構成される,タスク中心でデータ品質の高い新しいVaseフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.8843687952462742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The next-generation autonomous vehicles (AVs), embedded with frequent real-time decision-making, will rely heavily on a large volume of multisource and multimodal data. In real-world settings, the data quality (DQ) of different sources and modalities usually varies due to unexpected environmental factors or sensor issues. However, both researchers and practitioners in the AV field overwhelmingly concentrate on models/algorithms while undervaluing the DQ. To fulfill the needs of the next-generation AVs with guarantees of functionality, efficiency, and trustworthiness, this paper proposes a novel task-centric and data quality vase framework which consists of five layers: data layer, DQ layer, task layer, application layer, and goal layer. The proposed framework aims to map DQ with task requirements and performance goals. To illustrate, a case study investigating redundancy on the nuScenes dataset proves that partially removing redundancy on multisource image data could improve YOLOv8 object detection task performance. Analysis on multimodal data of image and LiDAR further presents existing redundancy DQ issues. This paper opens up a range of critical but unexplored challenges at the intersection of DQ, task orchestration, and performance-oriented system development in AVs. It is expected to guide the AV community toward building more adaptive, explainable, and resilient AVs that respond intelligently to dynamic environments and heterogeneous data streams. Code, data, and implementation details are publicly available at: https://anonymous.4open.science/r/dq4av-framework/README.md.
- Abstract(参考訳): リアルタイム意思決定を頻繁に行う次世代自動運転車(AV)は、大量のマルチソースおよびマルチモーダルデータに依存している。
現実の環境では、異なるソースとモダリティのデータ品質(DQ)は、通常、予期せぬ環境要因やセンサーの問題によって変化する。
しかしながら、AV分野の研究者と実践者は、DQを過小評価しながら、モデル/アルゴリズムに圧倒的に集中している。
本稿では,次世代AVのニーズを満たすために,データ層,DQ層,タスク層,アプリケーション層,目標層という5層からなるタスク中心でデータ品質の高い新しいVaseフレームワークを提案する。
提案されたフレームワークは、DQをタスク要求とパフォーマンス目標にマッピングすることを目的としている。
nuScenesデータセットの冗長性を調べるケーススタディでは、マルチソース画像データの冗長性の一部を部分的に除去することで、YOLOv8オブジェクト検出タスクのパフォーマンスが向上することを示した。
画像とLiDARのマルチモーダルデータの解析は、既存の冗長DQ問題をさらに提示する。
本稿では,DQ,タスクオーケストレーション,AVにおけるパフォーマンス指向システム開発といった分野における重要な課題について述べる。
AVコミュニティは、動的環境や異種データストリームにインテリジェントに応答する、より適応的で説明可能な、レジリエントなAVを構築するために、AVコミュニティを導くことが期待される。
コード、データ、実装の詳細は、https://anonymous.4open.science/r/dq4av-framework/README.mdで公開されている。
関連論文リスト
- Dynamic-Aware Video Distillation: Optimizing Temporal Resolution Based on Video Semantics [68.85010825225528]
ビデオデータセットは、時間的情報の存在と異なるクラスにまたがる様々なレベルの冗長性によって、ユニークな課題を示す。
既存のDDアプローチでは、すべての異なるビデオセマンティクスにおける時間的冗長性を均一に仮定し、ビデオデータセットにおけるその有効性を制限している。
合成ビデオの時間分解能を最適に予測するための強化学習(RL)アプローチである動的認識ビデオ蒸留(DAViD)を提案する。
論文 参考訳(メタデータ) (2025-05-28T11:43:58Z) - FortisAVQA and MAVEN: a Benchmark Dataset and Debiasing Framework for Robust Multimodal Reasoning [31.61978841892981]
本稿では,2つの段階で構築された新しいデータセットFortisAVQAを紹介する。
第1段階はより多様性のあるテスト空間を拡大し、第2段階は洗練された堅牢性評価を可能にする。
我々のアーキテクチャはFortisAVQAの最先端性能を実現し、7.81%の顕著な改善を実現している。
論文 参考訳(メタデータ) (2025-04-01T07:23:50Z) - CFReID: Continual Few-shot Person Re-Identification [130.5656289348812]
Lifelong ReIDは、複数のドメインにまたがる知識を漸進的に学習し、蓄積するために提案されている。
LReIDモデルは、一般にプライバシとコストの懸念のためにアクセスできない、目に見えない各ドメインの大規模ラベル付きデータでトレーニングする必要がある。
本稿では,数ショットデータを用いてモデルをインクリメンタルにトレーニングし,すべてのドメインでテストするContinual Few-shot ReIDを提案する。
論文 参考訳(メタデータ) (2025-03-24T09:17:05Z) - DriveLMM-o1: A Step-by-Step Reasoning Dataset and Large Multimodal Model for Driving Scenario Understanding [76.3876070043663]
自律運転のための段階的視覚的推論を推し進めるためのデータセットとベンチマークであるDriveLMM-o1を提案する。
私たちのベンチマークでは、トレーニングセットに18k以上のVQAサンプル、テストセットに4k以上、知覚、予測、計画に関するさまざまな質問をカバーしています。
我々のモデルは、最終回答精度が+7.49%向上し、以前の最高のオープンソースモデルよりも3.62%向上した。
論文 参考訳(メタデータ) (2025-03-13T17:59:01Z) - DNN Task Assignment in UAV Networks: A Generative AI Enhanced Multi-Agent Reinforcement Learning Approach [16.139481340656552]
本稿では,マルチエージェント強化学習(MARL)と生成拡散モデル(GDM)を組み合わせた共同手法を提案する。
第2段階では,GDMのリバース・デノナイズ・プロセスを利用して,マルチエージェント・ディープ・Deep Deterministic Policy gradient(MADDPG)におけるアクタネットワークを置き換える新しいDNNタスク割当アルゴリズム(GDM-MADDPG)を導入する。
シミュレーションの結果,提案アルゴリズムは,経路計画,情報化時代(AoI),エネルギー消費,タスク負荷分散の観点から,ベンチマークに比較して良好な性能を示した。
論文 参考訳(メタデータ) (2024-11-13T02:41:02Z) - A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。