論文の概要: TurboTrain: Towards Efficient and Balanced Multi-Task Learning for Multi-Agent Perception and Prediction
- arxiv url: http://arxiv.org/abs/2508.04682v1
- Date: Wed, 06 Aug 2025 17:46:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.861238
- Title: TurboTrain: Towards Efficient and Balanced Multi-Task Learning for Multi-Agent Perception and Prediction
- Title(参考訳): TurboTrain:マルチエージェント認識と予測のための効率的かつバランスの取れたマルチタスク学習を目指して
- Authors: Zewei Zhou, Seth Z. Zhao, Tianhui Cai, Zhiyu Huang, Bolei Zhou, Jiaqi Ma,
- Abstract要約: TurboTrainは、マルチエージェント認識と予測のための、新しくて効率的なトレーニングフレームワークである。
トレーニングプロセスの合理化によって、我々のフレームワークは、複雑なマルチステージトレーニングパイプラインを手動でチューニングし、チューニングする必要がなくなる。
- 参考スコア(独自算出の注目度): 42.469135540310134
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: End-to-end training of multi-agent systems offers significant advantages in improving multi-task performance. However, training such models remains challenging and requires extensive manual design and monitoring. In this work, we introduce TurboTrain, a novel and efficient training framework for multi-agent perception and prediction. TurboTrain comprises two key components: a multi-agent spatiotemporal pretraining scheme based on masked reconstruction learning and a balanced multi-task learning strategy based on gradient conflict suppression. By streamlining the training process, our framework eliminates the need for manually designing and tuning complex multi-stage training pipelines, substantially reducing training time and improving performance. We evaluate TurboTrain on a real-world cooperative driving dataset, V2XPnP-Seq, and demonstrate that it further improves the performance of state-of-the-art multi-agent perception and prediction models. Our results highlight that pretraining effectively captures spatiotemporal multi-agent features and significantly benefits downstream tasks. Moreover, the proposed balanced multi-task learning strategy enhances detection and prediction.
- Abstract(参考訳): マルチエージェントシステムのエンドツーエンドトレーニングは、マルチタスク性能を改善する上で大きな利点をもたらす。
しかし、そのようなモデルの訓練は依然として困難であり、広範囲な手動設計と監視が必要である。
本稿では,マルチエージェント認識と予測のための新しい,効率的なトレーニングフレームワークであるTurboTrainを紹介する。
TurboTrainは、マスク付き再構成学習に基づくマルチエージェント時空間事前学習スキームと、勾配競合抑制に基づくマルチタスク学習戦略の2つの重要なコンポーネントから構成される。
トレーニングプロセスの合理化によって,複雑なマルチステージトレーニングパイプラインを手動で設計およびチューニングする必要がなくなり,トレーニング時間を大幅に短縮し,パフォーマンスが向上する。
実世界の協調運転データセットであるV2XPnP-Seq上でTurboTrainを評価し、最先端のマルチエージェント認識と予測モデルの性能をさらに向上させることを示した。
以上の結果から,事前学習は時空間多エージェントの特徴を効果的に捉え,下流タスクに多大な効果をもたらすことが示唆された。
さらに,バランスの取れたマルチタスク学習戦略により,検出と予測が促進される。
関連論文リスト
- Bigger, Regularized, Categorical: High-Capacity Value Functions are Efficient Multi-Task Learners [60.75160178669076]
オンライン強化学習におけるタスク干渉の問題に対して,クロスエントロピーを用いて訓練し,学習可能なタスク埋め込みを条件とした高容量値モデルの使用が課題であることを示す。
280以上のユニークなタスクを持つ7つのマルチタスクベンチマークで、高い自由度ヒューマノイド制御と離散視覚ベースのRLにまたがるアプローチを検証した。
論文 参考訳(メタデータ) (2025-05-29T06:41:45Z) - Transforming Vision Transformer: Towards Efficient Multi-Task Asynchronous Learning [59.001091197106085]
Vision TransformerのためのMulti-Task Learning (MTL)は、複数のタスクを同時に処理することでモデル能力を向上させることを目的としている。
最近の研究は、Mixture-of-Experts(MoE)構造の設計とローランド適応(LoRA)によるマルチタスク学習の効率化に重点を置いている。
本稿では,事前学習した視覚変換器を効率的なマルチタスク学習器に変換することで,EMTAL(Efficient Multi-Task Learning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T17:41:23Z) - MultiBalance: Multi-Objective Gradient Balancing in Industrial-Scale Multi-Task Recommendation System [28.23029744894405]
産業規模のマルチタスクレコメンデーションシステムにおいて,MultiBalanceと呼ばれる勾配バランス手法を提案する。
タスク毎の勾配のバランスを保ち、負の移動を軽減し、グリッド検索や手動探索の膨大なコストを節約します。
我々はMetaの大規模広告の実験を行い、マルチタスクレコメンデーションシステムを提供し、MultiBalanceが大きな利益を得るのを観察する。
論文 参考訳(メタデータ) (2024-11-03T21:20:21Z) - A Multi-Level Framework for Accelerating Training Transformer Models [5.268960238774481]
大規模ディープラーニングモデルの訓練は、コンピューティングパワーに対する前例のない需要をもたらしている。
本稿では,Coalescing, De-Coalescing, Interpolation に基づく,加速度のトレーニングのためのマルチレベルフレームワークを提案する。
提案手法は,BERT/GPT-Baseモデルのトレーニングにおいて約20%,BERT-Largeモデルのトレーニングにおいて最大51.6%のコスト削減を実現する。
論文 参考訳(メタデータ) (2024-04-07T03:04:34Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - One-stop Training of Multiple Capacity Models [74.87789190840527]
本稿では,高容量・低容量モデルとの共同学習のためのワンストップトレーニングフレームワークを提案する。
複数のキャパシティモデルをスクラッチから個別に訓練する知識蒸留とは異なり、我々の手法は異なるキャパシティモデルからの監督を同時に統合する。
論文 参考訳(メタデータ) (2023-05-23T13:44:09Z) - Efficient Training of Multi-task Neural Solver for Combinatorial Optimization [23.694457372640912]
本稿では,統合型マルチタスクニューラルソルバを実現するための,汎用的で効率的なトレーニングパラダイムを提案する。
本手法は, 制約付きトレーニング予算の範囲内であっても, 全体的な性能を著しく向上させる。
また,本手法は単一タスク学習やマルチタスク学習と比較して最高の結果を得た。
論文 参考訳(メタデータ) (2023-05-10T14:20:34Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。