論文の概要: HiFi: High-Information Attention Heads Hold for Parameter-Efficient
Model Adaptation
- arxiv url: http://arxiv.org/abs/2305.04573v1
- Date: Mon, 8 May 2023 09:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:58:46.858556
- Title: HiFi: High-Information Attention Heads Hold for Parameter-Efficient
Model Adaptation
- Title(参考訳): hifi: パラメータ効率の高いモデル適応のための高情報注意ヘッド
- Authors: Anchun Gui and Han Xiao
- Abstract要約: パラメータ効率の高い微調整手法であるHiFiを提案する。
まず,2つの情報豊かさと相関性の観点から,頭部間の関係をグラフにモデル化し,各頭部の相対的重要性を決定するためにPageRankアルゴリズムを適用した。
GLUEベンチマークを用いた実験により,提案手法の有効性を実証し,HiFiが先行ベースライン上での最先端性能が得られることを示す。
- 参考スコア(独自算出の注目度): 0.8409934249521909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To fully leverage the advantages of large-scale pre-trained language models
(PLMs) on downstream tasks, it has become a ubiquitous adaptation paradigm to
fine-tune the entire parameters of PLMs. However, this paradigm poses issues of
inefficient updating and resource over-consuming for fine-tuning in data-scarce
and resource-limited scenarios, because of the large scale of parameters in
PLMs. To alleviate these concerns, in this paper, we propose a
parameter-efficient fine-tuning method HiFi, that is, only the highly
informative and strongly correlated attention heads for the specific task are
fine-tuned. To search for those significant attention heads, we develop a novel
framework to analyze the effectiveness of heads. Specifically, we first model
the relationship between heads into a graph from two perspectives of
information richness and correlation, and then apply PageRank algorithm to
determine the relative importance of each head. Extensive experiments on the
GLUE benchmark demonstrate the effectiveness of our method, and show that HiFi
obtains state-of-the-art performance over the prior baselines.
- Abstract(参考訳): ダウンストリームタスクにおける大規模事前学習言語モデル(plm)の利点を十分に活用するため、plmのパラメータ全体を微調整するユビキタス適応パラダイムとなった。
しかし、このパラダイムは、PLMの大規模なパラメーターのため、データスカースおよびリソース制限シナリオの微調整に非効率な更新とリソース過剰の問題を提起する。
そこで本稿では,これらの課題を緩和するため,パラメータ効率の良い微調整法hifiを提案する。
注目度の高い頭部を探索するために,頭部の有効性を分析するための新しい枠組みを開発した。
具体的には、まず、情報豊かさと相関性の2つの視点から頭部間の関係をグラフにモデル化し、次にPageRankアルゴリズムを適用して各頭部の相対的重要性を決定する。
GLUEベンチマークの大規模な実験により,提案手法の有効性を実証し,HiFiが先行ベースライン上での最先端性能を得ることを示す。
関連論文リスト
- UNEM: UNrolled Generalized EM for Transductive Few-Shot Learning [35.62208317531141]
我々は「最適化学習」とも呼ばれるアンロールパラダイムを提唱し紹介する。
我々のアンローリングアプローチは、様々な統計的特徴分布と事前学習パラダイムをカバーしている。
本稿では,下流画像分類作業の細粒度を網羅した包括的実験について報告する。
論文 参考訳(メタデータ) (2024-12-21T19:01:57Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Parameter-Efficient Active Learning for Foundational models [7.799711162530711]
基礎的な視覚変換器モデルは、多くの視覚タスクにおいて、驚くほどのショットパフォーマンスを示している。
本研究は,アクティブラーニング(AL)フレームワークにおけるパラメータ効率の良い微調整手法の適用に関する新たな研究である。
論文 参考訳(メタデータ) (2024-06-13T16:30:32Z) - DPPA: Pruning Method for Large Language Model to Model Merging [39.13317231533299]
本稿では、複雑な微調整モデルを統合するという課題に対処するため、DPPA(Dynamic Pruning Partition Amplification)と呼ばれる2段階の手法を提案する。
提案手法は,ドメイン固有のパラメータの20%しか保持せず,他の手法に匹敵する性能を提供する。
提案手法では, プレニング後の性能が優れており, モデルマージにおける性能が20%近く向上した。
論文 参考訳(メタデータ) (2024-03-05T09:12:49Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - Fairer and More Accurate Tabular Models Through NAS [14.147928131445852]
本稿では,多目的ニューラルアーキテクチャサーチ (NAS) とハイパーパラメータ最適化 (HPO) を,表データの非常に困難な領域への最初の応用として提案する。
我々はNASで精度のみに最適化されたモデルが、本質的に公正な懸念に対処できないことをしばしば示している。
公平性、正確性、あるいは両方において、最先端のバイアス緩和手法を一貫して支配するアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-10-18T17:56:24Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。