論文の概要: Pareto Low-Rank Adapters: Efficient Multi-Task Learning with Preferences
- arxiv url: http://arxiv.org/abs/2407.08056v1
- Date: Wed, 10 Jul 2024 21:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 21:19:34.395667
- Title: Pareto Low-Rank Adapters: Efficient Multi-Task Learning with Preferences
- Title(参考訳): Pareto Low-Rank Adapters: 最適なマルチタスク学習
- Authors: Nikolaos Dimitriadis, Pascal Frossard, Francois Fleuret,
- Abstract要約: PaLoRAは、タスク固有の低ランクアダプタでオリジナルのモデルを拡張する、新しいパラメータ効率の手法である。
実験の結果,PaLoRAは様々なデータセットでMTLとPFLのベースラインを上回っていることがわかった。
- 参考スコア(独自算出の注目度): 49.14535254003683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dealing with multi-task trade-offs during inference can be addressed via Pareto Front Learning (PFL) methods that parameterize the Pareto Front with a single model, contrary to traditional Multi-Task Learning (MTL) approaches that optimize for a single trade-off which has to be decided prior to training. However, recent PFL methodologies suffer from limited scalability, slow convergence and excessive memory requirements compared to MTL approaches while exhibiting inconsistent mappings from preference space to objective space. In this paper, we introduce PaLoRA, a novel parameter-efficient method that augments the original model with task-specific low-rank adapters and continuously parameterizes the Pareto Front in their convex hull. Our approach dedicates the original model and the adapters towards learning general and task-specific features, respectively. Additionally, we propose a deterministic sampling schedule of preference vectors that reinforces this division of labor, enabling faster convergence and scalability to real world networks. Our experimental results show that PaLoRA outperforms MTL and PFL baselines across various datasets, scales to large networks and provides a continuous parameterization of the Pareto Front, reducing the memory overhead $23.8-31.7$ times compared with competing PFL baselines in scene understanding benchmarks.
- Abstract(参考訳): 推論中にマルチタスクのトレードオフに対処するには、トレーニング前に決めなければならない単一のトレードオフを最適化する従来のマルチタスク学習(MTL)アプローチとは対照的に、パレートフロントを単一のモデルでパラメータ化するパレートフロントラーニング(PFL)メソッドを使用する。
しかし、最近のPFL手法は、優先空間から目的空間への不整合写像を示しながら、MTLアプローチと比較してスケーラビリティ、収束の遅い、過剰なメモリ要求に悩まされている。
本稿では,タスク固有の低ランクアダプタで元のモデルを拡張し,コンベックス内におけるパレートフロントのパラメータ化を連続的に行う新しいパラメータ効率手法PaLoRAを紹介する。
提案手法では,基本モデルとアダプタをそれぞれ,一般的な特徴とタスク固有の特徴の学習に用いている。
さらに、この分業を強化し、現実のネットワークへのより高速な収束とスケーラビリティを実現するために、選好ベクトルの決定論的サンプリングスケジュールを提案する。
実験の結果,PaLoRA は様々なデータセットで MTL と PFL のベースラインを上回り,大規模ネットワークにスケールし,Pareto Front の連続パラメータ化を実現している。
関連論文リスト
- SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Parameter and Computation Efficient Transfer Learning for
Vision-Language Pre-trained Models [79.34513906324727]
本稿では,視覚言語事前学習モデルのためのパラメータと効率的な伝達学習(PCETL)を提案する。
そこで本研究では,新しい動的アーキテクチャスキップ(DAS)アプローチを効果的PCETLに適用する。
論文 参考訳(メタデータ) (2023-09-04T09:34:33Z) - Approximated Prompt Tuning for Vision-Language Pre-trained Models [54.326232586461614]
視覚言語による事前学習モデルでは、事前学習タスクと下流タスクのギャップを埋めるために、しばしば多くの学習可能なトークンを必要とする。
本稿では,効率的なVL転送学習を実現するために,APT(Approximated Prompt Tuning)アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-27T05:43:47Z) - Improving Pareto Front Learning via Multi-Sample Hypernetworks [4.129225533930966]
提案するPFLフレームワークであるPHN-HVIは,多種多様なトレードオフ選好から複数のソリューションを生成するハイパーネットワークである。
複数のMOO機械学習タスクの実験結果から,提案手法がベースラインを著しく上回ることが示された。
論文 参考訳(メタデータ) (2022-12-02T12:19:12Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Self-Evolutionary Optimization for Pareto Front Learning [34.17125297176668]
マルチタスク問題に対する多目的最適化(MOO)手法が提案されている。
最近のMOO法は、単一の統一モデルで複数の最適解(パレートフロント)を近似する。
PFLは複数の目的を持つ別のMOO問題に再変換可能であることを示し、それぞれがタスクの好みの重みに対応していることを示す。
論文 参考訳(メタデータ) (2021-10-07T13:38:57Z) - Learning the Pareto Front with Hypernetworks [44.72371822514582]
機械学習では、多目的最適化(MOO)の問題が一般的である。
これらの問題には最適なソリューションのセットがあり、フロントの各ポイントは、衝突する可能性のある目標間の異なるトレードオフを表す。
近年のMOO法は、損失空間において特定の望まれる光線を標的にすることができるが、ほとんどのアプローチは依然として2つの重大な制限に直面している。
論文 参考訳(メタデータ) (2020-10-08T16:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。