論文の概要: Data-Efficient Protein 3D Geometric Pretraining via Refinement of
Diffused Protein Structure Decoy
- arxiv url: http://arxiv.org/abs/2302.10888v1
- Date: Sun, 5 Feb 2023 14:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:00:52.317739
- Title: Data-Efficient Protein 3D Geometric Pretraining via Refinement of
Diffused Protein Structure Decoy
- Title(参考訳): 拡散タンパク質構造デコイの微細化によるタンパク質3次元幾何プリトレーニング
- Authors: Yufei Huang, Lirong Wu, Haitao Lin, Jiangbin Zheng, Ge Wang and Stan
Z. Li
- Abstract要約: 有意義なタンパク質表現の学習は、構造に基づく薬物設計のような様々な生物学的下流のタスクにとって重要である。
本稿では,タンパク質事前学習のための統一的なフレームワークと,幾何学的,データ効率,およびタンパク質特異的プリテキストタスクであるRefineDiffを提案する。
- 参考スコア(独自算出の注目度): 42.49977473599661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning meaningful protein representation is important for a variety of
biological downstream tasks such as structure-based drug design. Having
witnessed the success of protein sequence pretraining, pretraining for
structural data which is more informative has become a promising research
topic. However, there are three major challenges facing protein structure
pretraining: insufficient sample diversity, physically unrealistic modeling,
and the lack of protein-specific pretext tasks. To try to address these
challenges, we present the 3D Geometric Pretraining. In this paper, we propose
a unified framework for protein pretraining and a 3D geometric-based,
data-efficient, and protein-specific pretext task: RefineDiff (Refine the
Diffused Protein Structure Decoy). After pretraining our geometric-aware model
with this task on limited data(less than 1% of SOTA models), we obtained
informative protein representations that can achieve comparable performance for
various downstream tasks.
- Abstract(参考訳): 有意義なタンパク質表現の学習は、構造ベースの薬物設計のような様々な生物学的下流タスクにおいて重要である。
タンパク質配列の事前訓練の成功を目撃し、より情報的な構造データの事前訓練が有望な研究トピックとなっている。
しかし、タンパク質構造事前訓練に直面する大きな課題は3つある: サンプルの多様性の不足、物理的に非現実的なモデリング、タンパク質固有のプリテキストタスクの欠如である。
これらの課題に対処するために,3次元幾何事前学習を提案する。
本稿では,タンパク質の事前学習と3次元幾何学的,データ効率,およびタンパク質特異的プリテキストタスク(RefineDiff (Refinesed Protein Structure Decoy))の統一フレームワークを提案する。
我々の幾何学的認識モデルを限られたデータ(SOTAモデルの1%未満)で事前訓練した後、様々な下流タスクに匹敵する性能を達成できる情報的タンパク質表現を得た。
関連論文リスト
- Geometric Self-Supervised Pretraining on 3D Protein Structures using Subgraphs [26.727436310732692]
本稿では,3次元タンパク質構造上の3次元グラフニューラルネットワークを事前学習するための自己教師型手法を提案する。
提案手法が6%までの大幅な改善につながることを実験的に示す。
論文 参考訳(メタデータ) (2024-06-20T09:34:31Z) - ProtT3: Protein-to-Text Generation for Text-based Protein Understanding [88.43323947543996]
言語モデル(LM)は、タンパク質のテキスト記述を理解するのに優れている。
タンパク質言語モデル(PLM)は、タンパク質データを理解し、高品質な表現に変換するが、テキストを処理するのに苦労する。
ProtT3は、テキストベースのタンパク質理解のための、タンパク質からテキストへの生成のためのフレームワークである。
論文 参考訳(メタデータ) (2024-05-21T08:06:13Z) - Structure-Informed Protein Language Model [38.019425619750265]
本稿では、構造情報をタンパク質言語モデルに抽出するためのリモートホモロジー検出の統合について紹介する。
この構造インフォームドトレーニングが下流タンパク質機能予測タスクに与える影響を評価する。
論文 参考訳(メタデータ) (2024-02-07T09:32:35Z) - xTrimoPGLM: Unified 100B-Scale Pre-trained Transformer for Deciphering
the Language of Protein [76.18058946124111]
本稿では,タンパク質の理解と生成を同時に行うために,統一されたタンパク質言語モデル xTrimoPGLM を提案する。
xTrimoPGLMは、4つのカテゴリにわたる18のタンパク質理解ベンチマークにおいて、他の高度なベースラインを著しく上回っている。
また、自然の原理に従ってデノボタンパク質配列を生成でき、微調整を監督した後にプログラム可能な生成を行うことができる。
論文 参考訳(メタデータ) (2024-01-11T15:03:17Z) - A Text-guided Protein Design Framework [106.79061950107922]
本稿では,タンパク質設計のためのテキスト記述を利用するマルチモーダルフレームワークであるProteinDTを提案する。
タンパク質DTは以下の3つのステップから構成される:2つのモダリティの表現を整列するProteinCLAP、テキストモダリティからタンパク質表現を生成するファシリテーター、表現からタンパク質配列を生成するデコーダ。
本研究では,(1)テキスト誘導タンパク質生成における90%以上の精度,(2)ゼロショットテキスト誘導タンパク質編集タスクにおけるベストヒット率,(3)タンパク質特性予測ベンチマーク6項目中4項目における優れた性能の3つの課題に対するProteinDTの有効性を定量的に検証した。
論文 参考訳(メタデータ) (2023-02-09T12:59:16Z) - PSP: Million-level Protein Sequence Dataset for Protein Structure
Prediction [34.11168458572554]
PSPと命名された,高いカバレッジと多様性を持つ最初の100万レベルのタンパク質構造予測データセットを提示する。
このデータセットは570k真構造配列(10TB)と745k相補的蒸留配列(15TB)からなる。
また、このデータセット上でのSOTAタンパク質構造予測モデルのベンチマークトレーニング手順も提供する。
論文 参考訳(メタデータ) (2022-06-24T14:08:44Z) - Contrastive Representation Learning for 3D Protein Structures [13.581113136149469]
本稿では3次元タンパク質構造のための新しい表現学習フレームワークを提案する。
我々のフレームワークは、教師なしのコントラスト学習を用いて、タンパク質構造の意味のある表現を学習する。
これらの表現は、タンパク質機能予測、タンパク質の折りたたみ分類、構造的類似性予測、タンパク質-リガンド結合親和性予測など、様々なタスクを解くためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-05-31T10:33:06Z) - Structure-aware Protein Self-supervised Learning [50.04673179816619]
本稿では,タンパク質の構造情報を取得するための構造認識型タンパク質自己教師学習法を提案する。
特に、タンパク質構造情報を保存するために、よく設計されたグラフニューラルネットワーク(GNN)モデルを事前訓練する。
タンパク質言語モデルにおける逐次情報と特別に設計されたGNNモデルにおける構造情報との関係を,新しい擬似二段階最適化手法を用いて同定する。
論文 参考訳(メタデータ) (2022-04-06T02:18:41Z) - Protein Representation Learning by Geometric Structure Pretraining [27.723095456631906]
既存のアプローチは通常、多くの未ラベルアミノ酸配列で事前訓練されたタンパク質言語モデルである。
まず,タンパク質の幾何学的特徴を学習するための単純かつ効果的なエンコーダを提案する。
関数予測と折り畳み分類の両タスクの実験結果から,提案した事前学習法は,より少ないデータを用いた最先端のシーケンスベース手法と同等あるいは同等であることがわかった。
論文 参考訳(メタデータ) (2022-03-11T17:52:13Z) - BERTology Meets Biology: Interpreting Attention in Protein Language
Models [124.8966298974842]
注目レンズを用いたタンパク質トランスフォーマーモデルの解析方法を示す。
注意はタンパク質の折りたたみ構造を捉え、基礎となる配列では遠く離れているが、三次元構造では空間的に近接しているアミノ酸を接続する。
また、注意とタンパク質構造との相互作用を三次元的に可視化する。
論文 参考訳(メタデータ) (2020-06-26T21:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。