論文の概要: MixPHM: Redundancy-Aware Parameter-Efficient Tuning for Low-Resource
Visual Question Answering
- arxiv url: http://arxiv.org/abs/2303.01239v2
- Date: Wed, 7 Jun 2023 12:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:16:01.513519
- Title: MixPHM: Redundancy-Aware Parameter-Efficient Tuning for Low-Resource
Visual Question Answering
- Title(参考訳): mixphm: 冗長性を考慮したパラメータ効率の調整による低リソースビジュアル質問応答
- Authors: Jingjing Jiang, Nanning Zheng
- Abstract要約: 微調整事前学習型視覚言語モデル(VLM)は、視覚質問応答(VQA)における最先端性能を達成するための一般的なパラダイムである。
現在のパラメータ効率のチューニング手法は、チューニング可能なパラメータの数を劇的に削減するが、完全な微調整を伴う大きなパフォーマンスギャップは依然として残っている。
低リソースVQAにおける完全微調整よりも優れた冗長性を考慮したパラメータ効率調整法であるMixPHMを提案する。
- 参考スコア(独自算出の注目度): 66.05768870785548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, finetuning pretrained Vision-Language Models (VLMs) has been a
prevailing paradigm for achieving state-of-the-art performance in Visual
Question Answering (VQA). However, as VLMs scale, finetuning full model
parameters for a given task in low-resource settings becomes computationally
expensive, storage inefficient, and prone to overfitting. Current
parameter-efficient tuning methods dramatically reduce the number of tunable
parameters, but there still exists a significant performance gap with full
finetuning. In this paper, we propose MixPHM, a redundancy-aware
parameter-efficient tuning method that outperforms full finetuning in
low-resource VQA. Specifically, MixPHM is a lightweight module implemented by
multiple PHM-experts in a mixture-of-experts manner. To reduce parameter
redundancy, MixPHM reparameterizes expert weights in a low-rank subspace and
shares part of the weights inside and across experts. Moreover, based on a
quantitative redundancy analysis for adapters, we propose Redundancy
Regularization to reduce task-irrelevant redundancy while promoting
task-relevant correlation in MixPHM representations. Experiments conducted on
VQA v2, GQA, and OK-VQA demonstrate that MixPHM outperforms state-of-the-art
parameter-efficient methods and is the only one consistently surpassing full
finetuning.
- Abstract(参考訳): 近年,視覚質問応答(VQA)における最先端性能を実現するために,事前訓練型視覚言語モデル(VLM)が主流となっている。
しかしながら、VLMがスケールするにつれて、低リソース環境でのタスクの完全なモデルパラメータの微調整は計算コストが高くなり、ストレージの効率が悪くなり、過度に適合する傾向にある。
現在のパラメータ効率のチューニング手法は、チューナブルパラメータの数を劇的に削減するが、完全な微調整を伴う大きなパフォーマンスギャップが存在する。
本稿では,冗長性を考慮したパラメータ効率の高いチューニング手法であるmixphmを提案する。
具体的には、MixPHMは複数のPHM専門家によって実装された軽量モジュールである。
パラメータ冗長性を低減するため、mixphmは低ランク部分空間で専門家の重みを再パラメータ化し、専門家間の重みの一部を共有する。
さらに,アダプタの量的冗長性解析に基づいて,MixPHM表現におけるタスク関連相関を促進しつつ,タスク関連冗長性を低減する冗長性正規化を提案する。
VQA v2、GQA、OK-VQAで行った実験では、MixPHMは最先端のパラメータ効率の手法よりも優れており、完全な微調整を一貫して上回っているのは唯一である。
関連論文リスト
- RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [95.32315448601241]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - FreqMixFormerV2: Lightweight Frequency-aware Mixed Transformer for Human Skeleton Action Recognition [9.963966059349731]
FreqMixForemrV2は、微妙で差別的なアクションを特定するために、周波数対応のMixed Transformer(FreqMixFormer)上に構築されている。
提案手法は, 精度と効率のバランスが良く, パラメータの60%しか持たない最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-29T23:52:40Z) - FineGates: LLMs Finetuning with Compression using Stochastic Gates [7.093692674858257]
大規模言語モデル(LLM)は、高い計算要求のため、完全な微調整に重大な課題をもたらす。
低ランクのアダプタ層を学習するなど、軽量なファインタニング技術が提案されている。
本稿では,フリーズベースモデルとタスク固有適応を同時に分散するゲートに基づくアダプタモデルを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:33:05Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - LoRTA: Low Rank Tensor Adaptation of Large Language Models [70.32218116940393]
Low Rank Adaptation (LoRA) は、PEFT (Efficient Fine Tuning) 法として人気がある。
よりコンパクトで柔軟な表現を可能にする高階Candecomp/Parafac(CP)分解を提案する。
本手法は,比較性能を維持しつつパラメータ数を削減できる。
論文 参考訳(メタデータ) (2024-10-05T06:59:50Z) - QFT: Quantized Full-parameter Tuning of LLMs with Affordable Resources [37.265708531464746]
大規模言語モデル(LLM)は、さまざまな自然言語処理タスクに顕著な影響を与えている。
これらのトレーニング済みモデルを下流データセットに微調整することで、さらなる大幅なパフォーマンス向上が達成されるが、このプロセスは異常なリソース要求のために困難だった。
性能を損なうことなくメモリ効率のよい微調整を可能にするLLMのための新しい量子フルパラメータチューニングフレームワークQFTを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:47:40Z) - Parameter-Efficient Fine-Tuning without Introducing New Latency [7.631596468553607]
隠れ表現の代わりに事前学習パラメータに直接アダプタを適用する新しいアダプタ技術を導入する。
提案手法は,性能と記憶効率の両面で新たな最先端性を実現し,完全微調整のパラメータは0.03%に過ぎなかった。
論文 参考訳(メタデータ) (2023-05-26T08:44:42Z) - AdaMix: Mixture-of-Adaptations for Parameter-efficient Model Tuning [112.97430455461097]
本稿では,各トランスフォーマー層に導入される適応モジュールの混合を調整し,PLMの重みの大半を凍結させながら,汎用PEFT法を提案する。
PLMパラメータの0.1-0.2%だけをチューニングすることにより、AdaMix は NLU および NLG のタスクに対して SOTA パラメータ効率の良い微調整およびフルモデル微調整より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-31T16:23:36Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。