論文の概要: AutoMTL: A Programming Framework for Automated Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2110.13076v1
- Date: Mon, 25 Oct 2021 16:13:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:39:17.122499
- Title: AutoMTL: A Programming Framework for Automated Multi-Task Learning
- Title(参考訳): AutoMTL: マルチタスク学習自動化のためのプログラミングフレームワーク
- Authors: Lijun Zhang, Xiao Liu, Hui Guan
- Abstract要約: マルチタスク学習(MTL)は、一連のタスクを共同で学習する。
MTLの普及を妨げている大きな障壁は、コンパクトなマルチタスクモデルを開発するための体系的なサポートの欠如である。
MTLモデル開発を自動化する最初のプログラミングフレームワークであるAutoMTLを開発した。
- 参考スコア(独自算出の注目度): 23.368860215515323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning (MTL) jointly learns a set of tasks. It is a promising
approach to reduce the training and inference time and storage costs while
improving prediction accuracy and generalization performance for many computer
vision tasks. However, a major barrier preventing the widespread adoption of
MTL is the lack of systematic support for developing compact multi-task models
given a set of tasks. In this paper, we aim to remove the barrier by developing
the first programming framework AutoMTL that automates MTL model development.
AutoMTL takes as inputs an arbitrary backbone convolutional neural network and
a set of tasks to learn, then automatically produce a multi-task model that
achieves high accuracy and has small memory footprint simultaneously. As a
programming framework, AutoMTL could facilitate the development of MTL-enabled
computer vision applications and even further improve task performance. Code of
AutoMTL will be available at https://github.com/zhanglijun95/AutoMTL
- Abstract(参考訳): マルチタスク学習(MTL)は、一連のタスクを共同で学習する。
多くのコンピュータビジョンタスクの予測精度と一般化性能を改善しつつ、トレーニングや推論時間、ストレージコストの削減に期待できるアプローチである。
しかし、MTLの普及を妨げている大きな障壁は、タスクセットによってコンパクトなマルチタスクモデルを開発するための体系的なサポートがないことである。
本稿では,MTLモデル開発を自動化する最初のプログラミングフレームワークであるAutoMTLを開発することにより,その障壁を取り除くことを目的とする。
automtlは任意のバックボーン畳み込みニューラルネットワークと学習すべきタスクのセットを入力として、高い精度を実現し、メモリフットプリントの少ないマルチタスクモデルを自動的に生成する。
プログラミングフレームワークとして、AutoMTLはMTL対応コンピュータビジョンアプリケーションの開発を容易にし、タスク性能をさらに向上させることができる。
AutoMTLのコードはhttps://github.com/zhanglijun95/AutoMTLで入手できる。
関連論文リスト
- DeeR-VLA: Dynamic Inference of Multimodal Large Language Models for Efficient Robot Execution [114.61347672265076]
実世界のロボットのためのMLLMの開発は、ロボットプラットフォームで利用可能な計算能力とメモリ容量が典型的に限られているため、難しい。
活性化MLLMのサイズを自動的に調整するロボットビジョンランゲージ・アクション・モデル(DeeR)の動的早期実行フレームワークを提案する。
DeeR は LLM の計算コストを 5.2-6.5x に削減し、GPU のメモリを 2-6x に削減した。
論文 参考訳(メタデータ) (2024-11-04T18:26:08Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - AdapMTL: Adaptive Pruning Framework for Multitask Learning Model [5.643658120200373]
AdapMTLはマルチタスクモデルのための適応型プルーニングフレームワークである。
複数のタスクにまたがって、空間割り当てと精度のパフォーマンスのバランスをとる。
最先端の刈り取り法に比べて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-07T17:19:15Z) - AutoMMLab: Automatically Generating Deployable Models from Language
Instructions for Computer Vision Tasks [39.71649832548044]
AutoMMLabは、ユーザの言語命令に従う汎用LLMベースのAutoMLシステムである。
提案する AutoMMLab システムは,AutoML と OpenMMLab コミュニティを結ぶブリッジとして LLM を効果的に利用している。
実験の結果、AutoMMLabシステムは汎用的で、さまざまなメインストリームタスクをカバーしています。
論文 参考訳(メタデータ) (2024-02-23T14:38:19Z) - AutoML-GPT: Automatic Machine Learning with GPT [74.30699827690596]
本稿では,タスク指向のプロンプトを開発し,大規模言語モデル(LLM)を自動的に活用して学習パイプラインを自動化することを提案する。
本稿では,多様なAIモデルのブリッジとしてGPTを用いたAutoML-GPTを提案する。
このアプローチはコンピュータビジョン、自然言語処理、その他の課題領域において顕著な結果をもたらす。
論文 参考訳(メタデータ) (2023-05-04T02:09:43Z) - AdaMTL: Adaptive Input-dependent Inference for Efficient Multi-Task
Learning [1.4963011898406864]
マルチタスク学習モデルのためのタスク認識推論ポリシーを学習する適応型フレームワークであるAdaMTLを紹介する。
AdaMTLは計算複雑性を43%削減し、シングルタスクモデルと比較して精度を1.32%改善した。
Vuzix M4000 スマートグラス上に展開すると、AdaMTL は推論遅延とエネルギー消費をそれぞれ 21.8% と 37.5% に削減する。
論文 参考訳(メタデータ) (2023-04-17T20:17:44Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - Controllable Pareto Multi-Task Learning [55.945680594691076]
マルチタスク学習システムは,複数のタスクを同時に解決することを目的としている。
固定されたモデルキャパシティでは、タスクは互いに衝突し、システムは通常、それらすべてを学ぶためにトレードオフをしなければならない。
本研究では,異なるタスク間のリアルタイムなトレードオフ制御を実現するための,新しい制御可能なマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T11:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。