論文の概要: CoTBal: Comprehensive Task Balancing for Multi-Task Visual Instruction
Tuning
- arxiv url: http://arxiv.org/abs/2403.04343v1
- Date: Thu, 7 Mar 2024 09:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:34:31.404044
- Title: CoTBal: Comprehensive Task Balancing for Multi-Task Visual Instruction
Tuning
- Title(参考訳): CoTBal: マルチタスクビジュアルインストラクションチューニングのための総合的なタスクバランシング
- Authors: Yanqi Dai, Dong Jing, Nanyi Fei, Zhiwu Lu
- Abstract要約: LMMのマルチタスク視覚的インストラクションチューニングのための新しい包括的タスクバランシングアルゴリズムを提案する。
我々のCoTBalはマルチタスク・ビジュアル・インストラクション・チューニングにおける全体的な性能に優れています。
- 参考スコア(独自算出の注目度): 20.58878416527427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual instruction tuning is a key training stage of large multimodal models
(LMMs). Nevertheless, the common practice of indiscriminately mixing
instruction-following data from various tasks may result in suboptimal overall
performance due to different instruction formats and knowledge domains across
tasks. To mitigate this issue, we propose a novel Comprehensive Task Balancing
(CoTBal) algorithm for multi-task visual instruction tuning of LMMs. To our
knowledge, this is the first work that explores multi-task optimization in
visual instruction tuning. Specifically, we consider two key dimensions for
task balancing: (1) Inter-Task Contribution, the phenomenon where learning one
task potentially enhances the performance in other tasks, attributable to the
overlapping knowledge domains, and (2) Intra-Task Difficulty, which refers to
the learning difficulty within a single task. By quantifying these two
dimensions with performance-based metrics, task balancing is thus enabled by
assigning more weights to tasks that offer substantial contributions to others,
receive minimal contributions from others, and also have great intra-task
difficulties. Experiments show that our CoTBal leads to superior overall
performance in multi-task visual instruction tuning.
- Abstract(参考訳): ビジュアルインストラクションチューニングは、大型マルチモーダルモデル(LMM)の重要なトレーニングステージである。
それにもかかわらず、様々なタスクから命令追従データを無差別に混合する一般的なプラクティスは、タスク間で異なる命令形式と知識ドメインのために、全体的なパフォーマンスを最適化する可能性がある。
この問題を軽減するために,LMMのマルチタスク視覚的チューニングのための新しい総合的タスクバランシング(CoTBal)アルゴリズムを提案する。
私たちの知る限り、これはビジュアル命令チューニングにおけるマルチタスク最適化を探求する最初の仕事です。
具体的には,1つのタスクにおけるタスク間の貢献,1つのタスクの学習が他のタスクのパフォーマンスを潜在的に向上させる現象,2つのタスク内の学習難易度について考察する。
これにより、これらの2つの次元をパフォーマンスベースのメトリクスで定量化することにより、タスクバランスが実現される。
実験の結果,CoTBalはマルチタスク・ビジュアル・インストラクション・チューニングにおける全体的な性能に優れていた。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - MmAP : Multi-modal Alignment Prompt for Cross-domain Multi-task Learning [29.88567810099265]
マルチタスク学習は複数の相関タスクを同時に訓練するように設計されている。
この課題に対処するために、デコーダフリーの視覚言語モデルCLIPを統合する。
CLIPのためのマルチモーダルアライメント・プロンプト(MmAP)を提案する。
論文 参考訳(メタデータ) (2023-12-14T03:33:02Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - HydaLearn: Highly Dynamic Task Weighting for Multi-task Learning with
Auxiliary Tasks [4.095907708855597]
マルチタスク学習(MTL)は、1つ以上の関連する補助タスクと表現を共有することでタスクのパフォーマンスを向上させることができる。
通常、MTL-networksは、個別のタスク損失の一定の重み付けによる複合損失関数に基づいて訓練される。
実際には, 一定損失重みは, (i) ミニバッチに基づく最適化において, 最適タスク重みは, ミニバッチのサンプル組成に応じて, 更新から次へと大きく変化する。
メインタスクのゲインを個別のタスク勾配に結びつけるインテリジェントな重み付けアルゴリズムであるHydaLearnを導入して,その情報を伝達する。
論文 参考訳(メタデータ) (2020-08-26T16:04:02Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Understanding and Improving Information Transfer in Multi-Task Learning [14.43111978531182]
すべてのタスクに対して共有モジュール,各タスクに対して別個の出力モジュールを備えたアーキテクチャについて検討する。
タスクデータ間の不一致が負の転送(または性能の低下)を引き起こし、ポジティブな転送に十分な条件を提供することを示す。
理論的洞察から着想を得た結果,タスクの埋め込みレイヤの整合がマルチタスクトレーニングやトランスファー学習のパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-05-02T23:43:52Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。