論文の概要: AutoMTL: A Programming Framework for Automated Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2110.13076v1
- Date: Mon, 25 Oct 2021 16:13:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:39:17.122499
- Title: AutoMTL: A Programming Framework for Automated Multi-Task Learning
- Title(参考訳): AutoMTL: マルチタスク学習自動化のためのプログラミングフレームワーク
- Authors: Lijun Zhang, Xiao Liu, Hui Guan
- Abstract要約: マルチタスク学習(MTL)は、一連のタスクを共同で学習する。
MTLの普及を妨げている大きな障壁は、コンパクトなマルチタスクモデルを開発するための体系的なサポートの欠如である。
MTLモデル開発を自動化する最初のプログラミングフレームワークであるAutoMTLを開発した。
- 参考スコア(独自算出の注目度): 23.368860215515323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning (MTL) jointly learns a set of tasks. It is a promising
approach to reduce the training and inference time and storage costs while
improving prediction accuracy and generalization performance for many computer
vision tasks. However, a major barrier preventing the widespread adoption of
MTL is the lack of systematic support for developing compact multi-task models
given a set of tasks. In this paper, we aim to remove the barrier by developing
the first programming framework AutoMTL that automates MTL model development.
AutoMTL takes as inputs an arbitrary backbone convolutional neural network and
a set of tasks to learn, then automatically produce a multi-task model that
achieves high accuracy and has small memory footprint simultaneously. As a
programming framework, AutoMTL could facilitate the development of MTL-enabled
computer vision applications and even further improve task performance. Code of
AutoMTL will be available at https://github.com/zhanglijun95/AutoMTL
- Abstract(参考訳): マルチタスク学習(MTL)は、一連のタスクを共同で学習する。
多くのコンピュータビジョンタスクの予測精度と一般化性能を改善しつつ、トレーニングや推論時間、ストレージコストの削減に期待できるアプローチである。
しかし、MTLの普及を妨げている大きな障壁は、タスクセットによってコンパクトなマルチタスクモデルを開発するための体系的なサポートがないことである。
本稿では,MTLモデル開発を自動化する最初のプログラミングフレームワークであるAutoMTLを開発することにより,その障壁を取り除くことを目的とする。
automtlは任意のバックボーン畳み込みニューラルネットワークと学習すべきタスクのセットを入力として、高い精度を実現し、メモリフットプリントの少ないマルチタスクモデルを自動的に生成する。
プログラミングフレームワークとして、AutoMTLはMTL対応コンピュータビジョンアプリケーションの開発を容易にし、タスク性能をさらに向上させることができる。
AutoMTLのコードはhttps://github.com/zhanglijun95/AutoMTLで入手できる。
関連論文リスト
- AutoMMLab: Automatically Generating Deployable Models from Language
Instructions for Computer Vision Tasks [39.71649832548044]
AutoMMLabは、ユーザの言語命令に従う汎用LLMベースのAutoMLシステムである。
提案する AutoMMLab システムは,AutoML と OpenMMLab コミュニティを結ぶブリッジとして LLM を効果的に利用している。
実験の結果、AutoMMLabシステムは汎用的で、さまざまなメインストリームタスクをカバーしています。
論文 参考訳(メタデータ) (2024-02-23T14:38:19Z) - EMA-Net: Efficient Multitask Affinity Learning for Dense Scene
Predictions [7.01633634930651]
マルチタスク親和性学習ネットワーク(EMA-Net)について紹介する。
EMA-Netは、我々の新しいクロスタスク親和性学習(CTAL)モジュールを用いて、ローカル、グローバル、およびクロスタスクのインタラクションを適応的にキャプチャする。
この結果から,CNNを用いたデコーダに着目したモデルに対して,最先端のMTL性能を実現することができた。
論文 参考訳(メタデータ) (2024-01-20T05:31:47Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - JiuZhang 2.0: A Unified Chinese Pre-trained Language Model for
Multi-task Mathematical Problem Solving [77.51817534090789]
マルチタスク数学問題の解法を専門とする統一中国語 PLM である textbfJiuZhang2.0 を提案する。
我々の考えは、中規模のモデルを維持し、マルチタスク設定におけるモデル容量を改善するために、Emphcross-taskの知識共有を利用することである。
論文 参考訳(メタデータ) (2023-06-19T15:45:36Z) - AutoML-GPT: Automatic Machine Learning with GPT [74.30699827690596]
本稿では,タスク指向のプロンプトを開発し,大規模言語モデル(LLM)を自動的に活用して学習パイプラインを自動化することを提案する。
本稿では,多様なAIモデルのブリッジとしてGPTを用いたAutoML-GPTを提案する。
このアプローチはコンピュータビジョン、自然言語処理、その他の課題領域において顕著な結果をもたらす。
論文 参考訳(メタデータ) (2023-05-04T02:09:43Z) - AdaMTL: Adaptive Input-dependent Inference for Efficient Multi-Task
Learning [1.4963011898406864]
マルチタスク学習モデルのためのタスク認識推論ポリシーを学習する適応型フレームワークであるAdaMTLを紹介する。
AdaMTLは計算複雑性を43%削減し、シングルタスクモデルと比較して精度を1.32%改善した。
Vuzix M4000 スマートグラス上に展開すると、AdaMTL は推論遅延とエネルギー消費をそれぞれ 21.8% と 37.5% に削減する。
論文 参考訳(メタデータ) (2023-04-17T20:17:44Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - Controllable Pareto Multi-Task Learning [55.945680594691076]
マルチタスク学習システムは,複数のタスクを同時に解決することを目的としている。
固定されたモデルキャパシティでは、タスクは互いに衝突し、システムは通常、それらすべてを学ぶためにトレードオフをしなければならない。
本研究では,異なるタスク間のリアルタイムなトレードオフ制御を実現するための,新しい制御可能なマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T11:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。