論文の概要: MixPHM: Redundancy-Aware Parameter-Efficient Tuning for Low-Resource
Visual Question Answering
- arxiv url: http://arxiv.org/abs/2303.01239v2
- Date: Wed, 7 Jun 2023 12:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:16:01.513519
- Title: MixPHM: Redundancy-Aware Parameter-Efficient Tuning for Low-Resource
Visual Question Answering
- Title(参考訳): mixphm: 冗長性を考慮したパラメータ効率の調整による低リソースビジュアル質問応答
- Authors: Jingjing Jiang, Nanning Zheng
- Abstract要約: 微調整事前学習型視覚言語モデル(VLM)は、視覚質問応答(VQA)における最先端性能を達成するための一般的なパラダイムである。
現在のパラメータ効率のチューニング手法は、チューニング可能なパラメータの数を劇的に削減するが、完全な微調整を伴う大きなパフォーマンスギャップは依然として残っている。
低リソースVQAにおける完全微調整よりも優れた冗長性を考慮したパラメータ効率調整法であるMixPHMを提案する。
- 参考スコア(独自算出の注目度): 66.05768870785548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, finetuning pretrained Vision-Language Models (VLMs) has been a
prevailing paradigm for achieving state-of-the-art performance in Visual
Question Answering (VQA). However, as VLMs scale, finetuning full model
parameters for a given task in low-resource settings becomes computationally
expensive, storage inefficient, and prone to overfitting. Current
parameter-efficient tuning methods dramatically reduce the number of tunable
parameters, but there still exists a significant performance gap with full
finetuning. In this paper, we propose MixPHM, a redundancy-aware
parameter-efficient tuning method that outperforms full finetuning in
low-resource VQA. Specifically, MixPHM is a lightweight module implemented by
multiple PHM-experts in a mixture-of-experts manner. To reduce parameter
redundancy, MixPHM reparameterizes expert weights in a low-rank subspace and
shares part of the weights inside and across experts. Moreover, based on a
quantitative redundancy analysis for adapters, we propose Redundancy
Regularization to reduce task-irrelevant redundancy while promoting
task-relevant correlation in MixPHM representations. Experiments conducted on
VQA v2, GQA, and OK-VQA demonstrate that MixPHM outperforms state-of-the-art
parameter-efficient methods and is the only one consistently surpassing full
finetuning.
- Abstract(参考訳): 近年,視覚質問応答(VQA)における最先端性能を実現するために,事前訓練型視覚言語モデル(VLM)が主流となっている。
しかしながら、VLMがスケールするにつれて、低リソース環境でのタスクの完全なモデルパラメータの微調整は計算コストが高くなり、ストレージの効率が悪くなり、過度に適合する傾向にある。
現在のパラメータ効率のチューニング手法は、チューナブルパラメータの数を劇的に削減するが、完全な微調整を伴う大きなパフォーマンスギャップが存在する。
本稿では,冗長性を考慮したパラメータ効率の高いチューニング手法であるmixphmを提案する。
具体的には、MixPHMは複数のPHM専門家によって実装された軽量モジュールである。
パラメータ冗長性を低減するため、mixphmは低ランク部分空間で専門家の重みを再パラメータ化し、専門家間の重みの一部を共有する。
さらに,アダプタの量的冗長性解析に基づいて,MixPHM表現におけるタスク関連相関を促進しつつ,タスク関連冗長性を低減する冗長性正規化を提案する。
VQA v2、GQA、OK-VQAで行った実験では、MixPHMは最先端のパラメータ効率の手法よりも優れており、完全な微調整を一貫して上回っているのは唯一である。
関連論文リスト
- LoRTA: Low Rank Tensor Adaptation of Large Language Models [70.32218116940393]
Low Rank Adaptation (LoRA) は、下流タスクのための大規模な事前学習モデルに効果的に適応する、PEFT (Efficient Fine Tuning) 手法として人気がある。
モデル更新に低階テンソルパラメトリゼーションを用いる新しい手法を提案する。
提案手法は,大規模言語モデルの微調整に有効であり,比較性能を維持しつつ,パラメータ数の大幅な削減を実現している。
論文 参考訳(メタデータ) (2024-10-05T06:59:50Z) - MoDE: Effective Multi-task Parameter Efficient Fine-Tuning with a Mixture of Dyadic Experts [6.245113492272563]
Mixture of Dyadic Experts (MoDE) は効率的なマルチタスク適応のための新しい設計である。
我々の設計はよりきめ細かい混合を可能にし、それによってモデルの複数のタスクを共同で処理する能力を高めます。
論文 参考訳(メタデータ) (2024-08-02T18:05:10Z) - ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - LoRA Meets Dropout under a Unified Framework [38.5176197615878]
大規模言語モデル(LLM)は、多くのNLPアプリケーションにおいて重要な要素として現れている。
様々なドロップアウト手法は、当初は全てのパラメータを更新した完全な微調整のために設計されていたが、過剰なパラメータ冗長性に関連する過度な適合を緩和した。
我々は,これらの手法を,落下位置,構造パターン,補償基準に基づいてインスタンス化する総合的な調査のための統一的な枠組みを導入する。
論文 参考訳(メタデータ) (2024-02-25T07:09:10Z) - QFT: Quantized Full-parameter Tuning of LLMs with Affordable Resources [37.265708531464746]
大規模言語モデル(LLM)は、さまざまな自然言語処理タスクに顕著な影響を与えている。
これらのトレーニング済みモデルを下流データセットに微調整することで、さらなる大幅なパフォーマンス向上が達成されるが、このプロセスは異常なリソース要求のために困難だった。
性能を損なうことなくメモリ効率のよい微調整を可能にするLLMのための新しい量子フルパラメータチューニングフレームワークQFTを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:47:40Z) - Parameter-Efficient Fine-Tuning without Introducing New Latency [7.631596468553607]
隠れ表現の代わりに事前学習パラメータに直接アダプタを適用する新しいアダプタ技術を導入する。
提案手法は,性能と記憶効率の両面で新たな最先端性を実現し,完全微調整のパラメータは0.03%に過ぎなかった。
論文 参考訳(メタデータ) (2023-05-26T08:44:42Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - AdaMix: Mixture-of-Adaptations for Parameter-efficient Model Tuning [112.97430455461097]
本稿では,各トランスフォーマー層に導入される適応モジュールの混合を調整し,PLMの重みの大半を凍結させながら,汎用PEFT法を提案する。
PLMパラメータの0.1-0.2%だけをチューニングすることにより、AdaMix は NLU および NLG のタスクに対して SOTA パラメータ効率の良い微調整およびフルモデル微調整より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T16:23:36Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。