論文の概要: Co-modeling the Sequential and Graphical Routes for Peptide
Representation Learning
- arxiv url: http://arxiv.org/abs/2310.02964v2
- Date: Thu, 5 Oct 2023 12:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 10:53:42.596234
- Title: Co-modeling the Sequential and Graphical Routes for Peptide
Representation Learning
- Title(参考訳): ペプチド表現学習のためのシーケンシャルおよびグラフィカル経路の共モデリング
- Authors: Zihan Liu, Ge Wang, Jiaqi Wang, Jiangbin Zheng, Stan Z. Li
- Abstract要約: 本稿では,表現の相互情報を強化するためのペプチド共モデリング手法RepConを提案する。
RepConは、正のサンプルペア間の表現の一貫性を高め、負のペア間の表現を撃退することを学ぶ。
この結果から,コモデリング手法が独立モデルよりも優れていること,コモデリングフレームワーク下での他の手法よりもRepConの方が優れていることが示唆された。
- 参考スコア(独自算出の注目度): 67.66393016797181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Peptides are formed by the dehydration condensation of multiple amino acids.
The primary structure of a peptide can be represented either as an amino acid
sequence or as a molecular graph consisting of atoms and chemical bonds.
Previous studies have indicated that deep learning routes specific to
sequential and graphical peptide forms exhibit comparable performance on
downstream tasks. Despite the fact that these models learn representations of
the same modality of peptides, we find that they explain their predictions
differently. Considering sequential and graphical models as two experts making
inferences from different perspectives, we work on fusing expert knowledge to
enrich the learned representations for improving the discriminative
performance. To achieve this, we propose a peptide co-modeling method, RepCon,
which employs a contrastive learning-based framework to enhance the mutual
information of representations from decoupled sequential and graphical
end-to-end models. It considers representations from the sequential encoder and
the graphical encoder for the same peptide sample as a positive pair and learns
to enhance the consistency of representations between positive sample pairs and
to repel representations between negative pairs. Empirical studies of RepCon
and other co-modeling methods are conducted on open-source discriminative
datasets, including aggregation propensity, retention time, antimicrobial
peptide prediction, and family classification from Peptide Database. Our
results demonstrate the superiority of the co-modeling approach over
independent modeling, as well as the superiority of RepCon over other methods
under the co-modeling framework. In addition, the attribution on RepCon further
corroborates the validity of the approach at the level of model explanation.
- Abstract(参考訳): ペプチドは、複数のアミノ酸の脱水縮合によって形成される。
ペプチドの一次構造は、アミノ酸配列または原子と化学結合からなる分子グラフとして表現することができる。
従来の研究では、シーケンシャルおよびグラフィカルなペプチド形式に特有のディープラーニング経路が下流タスクに匹敵する性能を示すことが示されている。
これらのモデルがペプチドの同じモダリティの表現を学習しているにもかかわらず、それらの予測は異なる説明をしている。
異なる視点から推論を行う2つの専門家として、逐次的およびグラフィカルなモデルを考えると、私たちは、学習された表現を豊かにするために専門家の知識を融合させ、差別的性能を改善する。
これを実現するために、コントラスト学習に基づくフレームワークRepConというペプチド共モデリング手法を提案し、逐次的およびグラフィカルなエンドツーエンドモデルから表現の相互情報を強化する。
同じペプチドサンプルに対するシーケンシャルエンコーダとグラフィカルエンコーダからの表現を正のペアとして考慮し、正のサンプルペア間の表現の一貫性を高め、負のペア間の表現を撃退することを学ぶ。
repconおよび他の共同モデリング法に関する実証研究は、集約性、保持時間、抗菌ペプチドの予測、ペプチドデータベースからの家族分類など、オープンソースの識別データセットで行われている。
この結果から,コモデリング手法が独立モデルよりも優れていること,コモデリングフレームワークの他の手法よりもRepConの方が優れていることを示す。
さらに、RepConへの貢献は、モデル説明のレベルでアプローチの有効性をさらに裏付ける。
関連論文リスト
- Optimizing OOD Detection in Molecular Graphs: A Novel Approach with Diffusion Models [71.39421638547164]
本稿では,入力分子と再構成グラフの類似性を比較する補助拡散モデルに基づくフレームワークを用いてOOD分子を検出することを提案する。
IDトレーニングサンプルの再構成に向けた生成バイアスのため、OOD分子の類似度スコアは検出を容易にするためにはるかに低い。
本研究は,PGR-MOOD(PGR-MOOD)とよばれる分子OOD検出のためのプロトタイプグラフ再構成のアプローチを開拓し,3つのイノベーションを生かした。
論文 参考訳(メタデータ) (2024-04-24T03:25:53Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Improved prediction of ligand-protein binding affinities by meta-modeling [1.3859669037499769]
我々は,力場に基づく実証ドッキングとシーケンスに基づくディープラーニングモデルを統合するフレームワークを開発した。
メタモデルの多くがベースモデルに対する親和性予測を大幅に改善していることを示す。
我々の最高のメタモデルは、3D構造のみに基づく最先端のディープラーニングツールに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2023-10-05T23:46:45Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - Molecular Property Prediction by Semantic-invariant Contrastive Learning [26.19431931932982]
分子特性予測のためのビュー生成法に基づくフラグメントに基づくセマンティック不変コントラスト学習モデルを開発した。
事前トレーニングのサンプルが少ないため、FraSICLは既存の主要なモデルと比較して最先端のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2023-03-13T07:32:37Z) - Can Pre-trained Models Really Learn Better Molecular Representations for
AI-aided Drug Discovery? [22.921555120408907]
事前学習モデルにより抽出された表現の質を評価するために,Representation-Property Relation Analysis (RePRA) という手法を提案する。
2つのスコアは、RePRAによって検出された一般化されたACとSHを測定するように設計されている。
実験では、7つの事前学習されたモデルによって生成された10の目標タスクからの分子の表現を解析した。
論文 参考訳(メタデータ) (2022-08-21T10:05:25Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Interpretable Structured Learning with Sparse Gated Sequence Encoder for
Protein-Protein Interaction Prediction [2.9488233765621295]
アミノ酸配列から情報表現を学習することでタンパク質-タンパク質相互作用(PPI)を予測することは、生物学において難しいが重要な問題である。
我々は、シーケンスのみからPPIをモデル化し、予測するための新しいディープフレームワークを提案する。
本モデルでは,シーケンスからコンテキスト化およびシーケンシャル情報を活用することによってシーケンス表現を学習するための双方向ゲート再帰ユニットを組み込んだ。
論文 参考訳(メタデータ) (2020-10-16T17:13:32Z) - Energy-based View of Retrosynthesis [70.66156081030766]
エネルギーモデルとしてシーケンスおよびグラフベースの手法を統一するフレームワークを提案する。
本稿では,ベイズ前方および後方予測に対して一貫した訓練を行うフレームワーク内での新しい二重変種を提案する。
このモデルは、反応型が不明なテンプレートフリーアプローチに対して、最先端の性能を9.6%向上させる。
論文 参考訳(メタデータ) (2020-07-14T18:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。