論文の概要: Simple, Efficient and Scalable Structure-aware Adapter Boosts Protein Language Models
- arxiv url: http://arxiv.org/abs/2404.14850v1
- Date: Tue, 23 Apr 2024 09:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:41:16.084288
- Title: Simple, Efficient and Scalable Structure-aware Adapter Boosts Protein Language Models
- Title(参考訳): シンプルで効率的でスケーラブルな構造認識アダプタがタンパク質言語モデルを強化
- Authors: Yang Tan, Mingchen Li, Bingxin Zhou, Bozitao Zhong, Lirong Zheng, Pan Tan, Ziyi Zhou, Huiqun Yu, Guisheng Fan, Liang Hong,
- Abstract要約: 微調整済みタンパク質言語モデル (PLM) が下流予測タスクの強化戦略として注目されている。
SES-Adapterは、PLMの表現学習を強化するためのシンプルで効率的でスケーラブルなアダプタ手法である。
- 参考スコア(独自算出の注目度): 10.153316498387369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning Pre-trained protein language models (PLMs) has emerged as a prominent strategy for enhancing downstream prediction tasks, often outperforming traditional supervised learning approaches. As a widely applied powerful technique in natural language processing, employing Parameter-Efficient Fine-Tuning techniques could potentially enhance the performance of PLMs. However, the direct transfer to life science tasks is non-trivial due to the different training strategies and data forms. To address this gap, we introduce SES-Adapter, a simple, efficient, and scalable adapter method for enhancing the representation learning of PLMs. SES-Adapter incorporates PLM embeddings with structural sequence embeddings to create structure-aware representations. We show that the proposed method is compatible with different PLM architectures and across diverse tasks. Extensive evaluations are conducted on 2 types of folding structures with notable quality differences, 9 state-of-the-art baselines, and 9 benchmark datasets across distinct downstream tasks. Results show that compared to vanilla PLMs, SES-Adapter improves downstream task performance by a maximum of 11% and an average of 3%, with significantly accelerated training speed by a maximum of 1034% and an average of 362%, the convergence rate is also improved by approximately 2 times. Moreover, positive optimization is observed even with low-quality predicted structures. The source code for SES-Adapter is available at https://github.com/tyang816/SES-Adapter.
- Abstract(参考訳): 微調整された事前学習されたタンパク質言語モデル(PLM)は、下流予測タスクを強化する重要な戦略として現れ、しばしば従来の教師付き学習手法よりも優れている。
自然言語処理における強力な技術として、パラメータ効率の良いファインチューニング技術を用いることで、PLMの性能が向上する可能性がある。
しかし, 生命科学の課題への直接的移行は, 異なるトレーニング戦略やデータ形式により容易ではない。
このギャップに対処するために,PLMの表現学習を強化するためのシンプルで効率的でスケーラブルなアダプタであるSES-Adapterを導入する。
SES-AdapterはPLM埋め込みと構造配列埋め込みを組み込んで構造認識表現を作成する。
提案手法は様々なPLMアーキテクチャと互換性があり,多様なタスクにまたがっていることを示す。
大規模な評価は、特筆すべき品質差のある2種類の折り畳み構造、9つの最先端ベースライン、異なる下流タスクにわたる9つのベンチマークデータセットに対して行われる。
その結果、バニラPLMと比較して、SES-Adapterは下流タスク性能を最大11%、平均3%向上させ、トレーニング速度を最大1034%、平均362%向上させ、収束率も約2倍向上した。
さらに、低品質な予測構造でも正の最適化が観測される。
SES-Adapterのソースコードはhttps://github.com/tyang816/SES-Adapterで入手できる。
関連論文リスト
- A Simple Baseline for Efficient Hand Mesh Reconstruction [9.704302427105187]
3次元手ポーズ推定はジェスチャー認識や人間と機械のインタラクションタスクといった分野に広く応用されている。
本稿では,最新技術(SOTA)法を超越した,単純で効果的なベースラインを提案するが,計算効率も示す。
論文 参考訳(メタデータ) (2024-03-04T08:00:20Z) - Few-shot learning for automated content analysis: Efficient coding of
arguments and claims in the debate on arms deliveries to Ukraine [0.9576975587953563]
トランスフォーマーニューラルネットワークに基づく事前学習言語モデル(PLM)は、通信科学における自動コンテンツ分析を改善する大きな機会を提供する。
これまでの3つの特徴は、NLP研究における英語モデルの優位性、必要な計算資源、微調整 PLM の訓練データ作成に必要な労力など、適用分野における手法の普及を妨げている。
我々は、われわれのアプローチを、コミュニケーション科学の現実的なユースケースで試し、主張や議論を自動的に検出し、ドイツによるウクライナへの武器の配達に関する議論におけるスタンスと合わせて検証する。
論文 参考訳(メタデータ) (2023-12-28T11:39:08Z) - Meta-Adapter: An Online Few-shot Learner for Vision-Language Model [64.21017759533474]
CLIPとして知られる対照的な視覚言語事前学習は、オープンワールドの視覚概念を知覚する大きな可能性を実証している。
CLIPに基づくほとんどショットの学習方法は、通常、少数のサンプルでパラメータをオフラインで微調整する必要がある。
少数のサンプルから導かれるCLIP機能をオンライン的に洗練するための,軽量な残差型アダプタであるMeta-Adapterを提案する。
論文 参考訳(メタデータ) (2023-11-07T07:27:16Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - MerA: Merging Pretrained Adapters For Few-Shot Learning [71.44422347502409]
モデル融合により,事前学習したアダプタを単一モデルに効率的に組み込むことができるtextbftextttMerging Pretrained Adapters (MerA)を提案する。
2つのPLMの実験では、MerAはシングルアダプタとAdapterFusionの両方と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-30T12:10:17Z) - Benchmarking Robustness of Adaptation Methods on Pre-trained
Vision-Language Models [49.595973365500775]
マルチモーダルな汚職下では、4つの視覚言語データセットにまたがる11種類の広く使われている適応手法のロバスト性を評価する。
1)適応法は視覚的汚職よりもテキストの汚損に敏感である。
予測とは対照的に,適応データやパラメータの増大は強靭性を保証するものではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-03T11:05:04Z) - Not All Features Matter: Enhancing Few-shot CLIP with Adaptive Prior
Refinement [24.108008515395458]
本稿では,CLIP の事前学習知識に対する適応的事前 rEfinement 手法である APE を提案する。
11以上のベンチマークの平均精度では、APEとAPE-Tはいずれも最先端に達し、x30より学習可能なパラメータの少ない16ショットで、それぞれ1.59%、+1.99%で2番目のベットを上回っている。
論文 参考訳(メタデータ) (2023-04-03T17:58:54Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。