論文の概要: A Survey on Deep Multi-Task Learning in Connected Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2508.00917v1
- Date: Tue, 29 Jul 2025 22:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.622606
- Title: A Survey on Deep Multi-Task Learning in Connected Autonomous Vehicles
- Title(参考訳): 連結自動車における深層マルチタスク学習に関する調査研究
- Authors: Jiayuan Wang, Farhad Pourpanah, Q. M. Jonathan Wu, Ning Zhang,
- Abstract要約: 連結自動運転車(CAV)は、オブジェクト検出、セマンティックセグメンテーション、深さ推定、軌道予測、動き予測、行動予測など、複数のタスクを同時に実行する必要がある。
伝統的に、これらのタスクは異なるモデルを使用して対処されるため、デプロイメントコストが高くなり、計算オーバーヘッドが増大し、リアルタイムのパフォーマンスを達成する上での課題が生じる。
マルチタスク学習(MTL)は、単一の統一モデル内で複数のタスクの協調学習を可能にする、有望なソリューションとして登場した。
- 参考スコア(独自算出の注目度): 21.18445786285742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Connected autonomous vehicles (CAVs) must simultaneously perform multiple tasks, such as object detection, semantic segmentation, depth estimation, trajectory prediction, motion prediction, and behaviour prediction, to ensure safe and reliable navigation in complex environments. Vehicle-to-everything (V2X) communication enables cooperative driving among CAVs, thereby mitigating the limitations of individual sensors, reducing occlusions, and improving perception over long distances. Traditionally, these tasks are addressed using distinct models, which leads to high deployment costs, increased computational overhead, and challenges in achieving real-time performance. Multi-task learning (MTL) has recently emerged as a promising solution that enables the joint learning of multiple tasks within a single unified model. This offers improved efficiency and resource utilization. To the best of our knowledge, this survey is the first comprehensive review focused on MTL in the context of CAVs. We begin with an overview of CAVs and MTL to provide foundational background. We then explore the application of MTL across key functional modules, including perception, prediction, planning, control, and multi-agent collaboration. Finally, we discuss the strengths and limitations of existing methods, identify key research gaps, and provide directions for future research aimed at advancing MTL methodologies for CAV systems.
- Abstract(参考訳): 連結自動運転車(CAV)は、複雑な環境で安全で信頼性の高いナビゲーションを確保するために、オブジェクト検出、セマンティックセグメンテーション、深さ推定、軌道予測、動き予測、行動予測といった複数のタスクを同時に実行する必要がある。
車間通信(V2X)は、CAV間の協調運転を可能にし、それによって個々のセンサーの限界を緩和し、閉塞を低減し、長距離での知覚を向上させる。
伝統的に、これらのタスクは異なるモデルを使用して対処されるため、デプロイメントコストが高くなり、計算オーバーヘッドが増大し、リアルタイムのパフォーマンスを達成する上での課題が生じる。
マルチタスク学習(MTL)は、最近、単一の統一モデル内で複数のタスクの同時学習を可能にする有望なソリューションとして登場した。
これにより、効率と資源利用が向上する。
我々の知る限りでは、この調査はCAVの文脈におけるMTLに焦点を当てた初めての総合的なレビューである。
基礎となる背景を提供するために,CAV と MTL の概要から始める。
次に、認識、予測、計画、制御、マルチエージェント協調など、主要な機能モジュール間のMTLの適用について検討する。
最後に,既存の手法の長所と短所について考察し,重要な研究ギャップを特定し,CAVシステムにおけるMTL手法の進歩をめざした今後の研究の方向性を示す。
関連論文リスト
- Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - TEM^3-Learning: Time-Efficient Multimodal Multi-Task Learning for Advanced Assistive Driving [22.22943635900334]
TEM3-Learningは、ドライバーの感情認識、運転者行動認識、交通状況認識、車両行動認識を共同で最適化する新しいフレームワークである。
4つのタスクにまたがって最先端の精度を実現し、600万パラメータ未満の軽量アーキテクチャを維持し、142.32 FPSの推論速度を実現している。
論文 参考訳(メタデータ) (2025-06-22T16:12:27Z) - DINO-CoDT: Multi-class Collaborative Detection and Tracking with Vision Foundation Models [11.34839442803445]
道路利用者を対象とした多クラス協調検出・追跡フレームワークを提案する。
まず,大域的空間注意融合(GSAF)モジュールを用いた検出器を提案する。
次に,視覚基盤モデルを用いた視覚的セマンティクスを活用し,IDSW(ID SWitch)エラーを効果的に低減するトラックレットRe-IDentification(REID)モジュールを提案する。
論文 参考訳(メタデータ) (2025-06-09T02:49:10Z) - CAML: Collaborative Auxiliary Modality Learning for Multi-Agent Systems [38.20651868834145]
我々は,新しいマルチモーダル・マルチエージェント・フレームワークである協調補助モダリティ学習(CAML)を提案する。
事故検出においてCAMLが最大で$bf 58.1%の改善を達成していることを示す。
また,コラボレーティブセマンティックセグメンテーションのための実世界の地上ロボットデータ上でCAMLを検証する。
論文 参考訳(メタデータ) (2025-02-25T03:59:40Z) - Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - SGW-based Multi-Task Learning in Vision Tasks [8.459976488960269]
データセットの規模が拡大し、タスクの複雑さが増すにつれ、知識の共有はますます困難になってきている。
情報ボトルネック知識抽出モジュール(KEM)を提案する。
このモジュールは,情報の流れを制約することでタスク間干渉を減らすことを目的としており,計算複雑性を低減する。
論文 参考訳(メタデータ) (2024-10-03T13:56:50Z) - Traj-LLM: A New Exploration for Empowering Trajectory Prediction with Pre-trained Large Language Models [12.687494201105066]
本稿では,Traj-LLMを提案する。Large Language Models (LLMs) を用いて,エージェントの過去の/観測された軌跡やシーンセマンティクスから将来の動きを生成する可能性について検討する。
LLMの強力な理解能力は、ハイレベルなシーン知識とインタラクティブな情報のスペクトルを捉えている。
人為的な車線焦点認知機能を模倣し,先駆的なMambaモジュールを用いた車線認識確率論的学習を導入する。
論文 参考訳(メタデータ) (2024-05-08T09:28:04Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - High-Modality Multimodal Transformer: Quantifying Modality & Interaction
Heterogeneity for High-Modality Representation Learning [112.51498431119616]
本稿では,多種多様なモダリティを含む高モダリティシナリオに対する効率的な表現学習について検討する。
単一のモデルであるHighMMTは、テキスト、画像、オーディオ、ビデオ、センサー、プロプレセプション、スピーチ、時系列、セット、テーブル)と5つの研究領域から15のタスクをスケールする。
論文 参考訳(メタデータ) (2022-03-02T18:56:20Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - A Unified Object Motion and Affinity Model for Online Multi-Object
Tracking [127.5229859255719]
オブジェクトの動きと親和性モデルを単一のネットワークに統一する新しいMOTフレームワークUMAを提案する。
UMAは、単一物体追跡とメートル法学習をマルチタスク学習により統合された三重項ネットワークに統合する。
我々は,タスク認識機能学習を促進するために,タスク固有のアテンションモジュールを装備する。
論文 参考訳(メタデータ) (2020-03-25T09:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。