論文の概要: Improving PTM Site Prediction by Coupling of Multi-Granularity Structure
and Multi-Scale Sequence Representation
- arxiv url: http://arxiv.org/abs/2401.10211v1
- Date: Thu, 4 Jan 2024 20:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 09:17:47.776155
- Title: Improving PTM Site Prediction by Coupling of Multi-Granularity Structure
and Multi-Scale Sequence Representation
- Title(参考訳): マルチグラニュラリティ構造とマルチスケールシーケンス表現の結合によるPTMサイト予測の改善
- Authors: Zhengyi Li, Menglu Li, Lida Zhu, Wen Zhang
- Abstract要約: タンパク質翻訳後修飾(PTM)サイト予測はバイオインフォマティクスの基本的な課題である。
マルチグラニュラリティ構造とマルチスケールシーケンス表現の結合によるPTMサイト予測手法を提案する。
3つのデータセットに対する大規模な実験は、PTM-CMGMSが最先端の手法よりも優れていることを示している。
- 参考スコア(独自算出の注目度): 7.337067876477941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protein post-translational modification (PTM) site prediction is a
fundamental task in bioinformatics. Several computational methods have been
developed to predict PTM sites. However, existing methods ignore the structure
information and merely utilize protein sequences. Furthermore, designing a more
fine-grained structure representation learning method is urgently needed as PTM
is a biological event that occurs at the atom granularity. In this paper, we
propose a PTM site prediction method by Coupling of Multi-Granularity structure
and Multi-Scale sequence representation, PTM-CMGMS for brevity. Specifically,
multigranularity structure-aware representation learning is designed to learn
neighborhood structure representations at the amino acid, atom, and whole
protein granularity from AlphaFold predicted structures, followed by utilizing
contrastive learning to optimize the structure representations.Additionally,
multi-scale sequence representation learning is used to extract context
sequence information, and motif generated by aligning all context sequences of
PTM sites assists the prediction. Extensive experiments on three datasets show
that PTM-CMGMS outperforms the state-of-the-art methods.
- Abstract(参考訳): タンパク質翻訳後修飾(PTM)サイト予測はバイオインフォマティクスの基本的な課題である。
PTMサイトを予測するためにいくつかの計算手法が開発されている。
しかし、既存の方法は構造情報を無視し、単にタンパク質配列を利用するだけである。
さらに、PTMは原子粒度で発生する生物学的事象であるため、より微細な構造表現学習法を設計する必要がある。
本稿では,マルチグラニュラリティ構造とマルチスケールシーケンス表現の結合によるPTMサイト予測手法,PTM-CMGMSを提案する。
Specifically, multigranularity structure-aware representation learning is designed to learn neighborhood structure representations at the amino acid, atom, and whole protein granularity from AlphaFold predicted structures, followed by utilizing contrastive learning to optimize the structure representations.Additionally, multi-scale sequence representation learning is used to extract context sequence information, and motif generated by aligning all context sequences of PTM sites assists the prediction.
3つのデータセットに対する大規模な実験は、PTM-CMGMSが最先端の手法よりも優れていることを示している。
関連論文リスト
- Structure-aware Fine-tuning for Code Pre-trained Models [30.989863310409568]
CodePTMのための構造化・プラグ・アンド・プレイファインチューニング法である、構造対応ファインチューニング(SAT)を提案する。
まず,CodePTMから得られた情報と,コード構造から抽出した知識との差を定量化する構造損失を提案する。
次に、微調整性能を向上させるためにマルチタスク学習を導入する。
論文 参考訳(メタデータ) (2024-04-11T04:24:48Z) - Equivariant Pretrained Transformer for Unified Geometric Learning on
Multi-Domain 3D Molecules [23.189608074493997]
Equivariant Pretrained Transformer (EPT)は、小さな分子やタンパク質の幾何学的学習を調和させるために設計された新しい事前学習フレームワークである。
EPTは、各原子のより広い文脈に到達できるブロック強化表現を通じて、多ドメイン分子の幾何学的モデリングを統一する。
EPTのもう1つの重要な革新はブロックレベルの事前訓練であり、小さな分子とタンパク質からなるデータセットで共同で事前訓練することができる。
論文 参考訳(メタデータ) (2024-02-20T04:40:00Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - MMDesign: Multi-Modality Transfer Learning for Generative Protein Design [66.49989188722553]
タンパク質の設計は、対応するタンパク質のバックボーンに基づいてタンパク質配列を生成する。
深層生成モデルは、データから直接タンパク質設計を学ぶことを約束している。
パブリックな構造系列ペアリングの欠如は、一般化能力を制限している。
マルチモーダルトランスファー学習を利用するMMDesignと呼ばれる新しいタンパク質設計パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:59:23Z) - Efficient Prediction of Peptide Self-assembly through Sequential and
Graphical Encoding [57.89530563948755]
この研究は、高度なディープラーニングモデルを用いたペプチドエンコーディングのベンチマーク分析を提供する。
等電点や水和自由エネルギーなど、幅広いペプチド関連予測のガイドとして機能する。
論文 参考訳(メタデータ) (2023-07-17T00:43:33Z) - Simplicial Message Passing for Chemical Property Prediction [6.359302681867574]
本研究は,分子のトポロジ的情報をよりよく捉えるために,SMP(Simplicial Message Passing)フレームワークを提案する。
我々は、量子化学特性予測のためのディープラーニングアーキテクチャにSMPフレームワークを適用した。
その結果, 従来のMPNNと比較して, 分子の複雑な構造をよりよく捉えることができた。
論文 参考訳(メタデータ) (2023-06-09T10:10:03Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - A Systematic Study of Joint Representation Learning on Protein Sequences
and Structures [38.94729758958265]
効果的なタンパク質表現の学習は、タンパク質機能の予測のような生物学の様々なタスクにおいて重要である。
近年, タンパク質言語モデル(PLM)に基づく配列表現学習法は, 配列ベースタスクでは優れているが, タンパク質構造に関わるタスクへの直接適応は依然として困難である。
本研究は、最先端のPLMと異なる構造エンコーダを統合することで、結合タンパク質表現学習の包括的研究を行う。
論文 参考訳(メタデータ) (2023-03-11T01:24:10Z) - RDesign: Hierarchical Data-efficient Representation Learning for
Tertiary Structure-based RNA Design [65.41144149958208]
本研究では,データ駆動型RNA設計パイプラインを体系的に構築することを目的とする。
我々は、ベンチマークデータセットを作成し、複雑なRNA第三次構造を表現するための包括的な構造モデリングアプローチを設計した。
RNA設計プロセスを容易にするために,塩基対を持つ抽出二次構造体を事前知識として組み込んだ。
論文 参考訳(メタデータ) (2023-01-25T17:19:49Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Interpretable Structured Learning with Sparse Gated Sequence Encoder for
Protein-Protein Interaction Prediction [2.9488233765621295]
アミノ酸配列から情報表現を学習することでタンパク質-タンパク質相互作用(PPI)を予測することは、生物学において難しいが重要な問題である。
我々は、シーケンスのみからPPIをモデル化し、予測するための新しいディープフレームワークを提案する。
本モデルでは,シーケンスからコンテキスト化およびシーケンシャル情報を活用することによってシーケンス表現を学習するための双方向ゲート再帰ユニットを組み込んだ。
論文 参考訳(メタデータ) (2020-10-16T17:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。