論文の概要: Multi-task problems are not multi-objective
- arxiv url: http://arxiv.org/abs/2110.07301v1
- Date: Thu, 14 Oct 2021 12:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 22:05:50.834917
- Title: Multi-task problems are not multi-objective
- Title(参考訳): マルチタスク問題はマルチ目的ではない
- Authors: Michael Ruchte and Josif Grabocka
- Abstract要約: 多目的最適化(MOO)は、与えられた目的のセットに対して最適な設定セットを見つけることを目的としている。
マルチタスク学習(MTL)問題とMOO問題の特徴が似ていないことを示す。
その結果、単一のモデルがすべての目的を独立モデルで最適化するだけでなく、MOOを適用不可能にすることができる。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective optimization (MOO) aims at finding a set of optimal
configurations for a given set of objectives. A recent line of work applies MOO
methods to the typical Machine Learning (ML) setting, which becomes
multi-objective if a model should optimize more than one objective, for
instance in fair machine learning. These works also use Multi-Task Learning
(MTL) problems to benchmark MOO algorithms treating each task as independent
objective.
In this work we show that MTL problems do not resemble the characteristics of
MOO problems. In particular, MTL losses are not competing in case of a
sufficiently expressive single model. As a consequence, a single model can
perform just as well as optimizing all objectives with independent models,
rendering MOO inapplicable. We provide evidence with extensive experiments on
the widely used Multi-Fashion-MNIST datasets. Our results call for new
benchmarks to evaluate MOO algorithms for ML. Our code is available at:
https://github.com/ruchtem/moo-mtl.
- Abstract(参考訳): 多目的最適化(MOO)は、与えられた目的セットに対して最適な設定セットを見つけることを目的としている。
最近の一連の研究は、典型的な機械学習(ML)設定にMOOメソッドを適用している。
これらの研究は、MOOアルゴリズムのベンチマークにMulti-Task Learning (MTL) 問題も用いている。
本研究では, MTL問題とMOO問題の特徴が似ていないことを示す。
特に、十分表現力のある単一モデルの場合、MTL損失は競合しない。
その結果、単一のモデルがすべての目的を独立モデルで最適化するだけでなく、MOOを適用不可能にすることができる。
広範に使われているMNISTデータセットについて広範な実験を行った。
その結果,MLのためのMOOアルゴリズムを評価するための新しいベンチマークが求められた。
私たちのコードは、https://github.com/ruchtem/moo-mtl.comで利用可能です。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Multitask Learning Can Improve Worst-Group Outcomes [76.92646345152788]
マルチタスク学習(MTL)は、そのような広く使われている技法の一つである。
我々は,共同マルチタスク表現空間を正規化することにより,標準MTLを変更することを提案する。
正規化MTLアプローチは,平均群と最低群の両方でJTTを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-05T21:38:24Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。