論文の概要: A Multi-Modal Contrastive Diffusion Model for Therapeutic Peptide
Generation
- arxiv url: http://arxiv.org/abs/2312.15665v1
- Date: Mon, 25 Dec 2023 09:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:04:58.336566
- Title: A Multi-Modal Contrastive Diffusion Model for Therapeutic Peptide
Generation
- Title(参考訳): 治療ペプチド生成のための多モードコントラスト拡散モデル
- Authors: Yongkang Wang, Xuan Liu, Feng Huang, Zhankun Xiong, Wen Zhang
- Abstract要約: 本稿では,新しいペプチド配列と構造を共生成するために,拡散フレームワークにおける配列と構造の両方のモダリティを融合したマルチモーダルコントラスト拡散モデルを提案する。
MMCDは、抗菌性/抗がん性スコア、多様性、ペプチドドッキングなど、さまざまな指標で治療ペプチドを産生する、最先端のディープジェネレーション法よりも優れている。
- 参考スコア(独自算出の注目度): 7.779658935195194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Therapeutic peptides represent a unique class of pharmaceutical agents
crucial for the treatment of human diseases. Recently, deep generative models
have exhibited remarkable potential for generating therapeutic peptides, but
they only utilize sequence or structure information alone, which hinders the
performance in generation. In this study, we propose a Multi-Modal Contrastive
Diffusion model (MMCD), fusing both sequence and structure modalities in a
diffusion framework to co-generate novel peptide sequences and structures.
Specifically, MMCD constructs the sequence-modal and structure-modal diffusion
models, respectively, and devises a multi-modal contrastive learning strategy
with intercontrastive and intra-contrastive in each diffusion timestep, aiming
to capture the consistency between two modalities and boost model performance.
The inter-contrastive aligns sequences and structures of peptides by maximizing
the agreement of their embeddings, while the intra-contrastive differentiates
therapeutic and non-therapeutic peptides by maximizing the disagreement of
their sequence/structure embeddings simultaneously. The extensive experiments
demonstrate that MMCD performs better than other state-of-theart deep
generative methods in generating therapeutic peptides across various metrics,
including antimicrobial/anticancer score, diversity, and peptide-docking.
- Abstract(参考訳): 治療ペプチドは、ヒトの疾患の治療に必須の薬品の特異なクラスである。
近年, 深層生成モデルでは治療ペプチドの生成に顕著な可能性が示されているが, 配列情報や構造情報のみを利用するため, 発生時の性能を阻害している。
本研究では、新しいペプチド配列と構造を共生成するために、拡散フレームワークにおける配列と構造の両方のモダリティを融合したマルチモーダルコントラスト拡散モデル(mmcd)を提案する。
具体的には、mmcdはシーケンス・モーダル拡散モデルと構造・モーダル拡散モデルをそれぞれ構築し、各拡散時間ステップで相互接続性と内包性を持つマルチモーダルコントラスト学習戦略を考案し、2つのモーダル間の一貫性を捉え、モデル性能を向上させることを目的としている。
コントラスト内はペプチドの配列と構造を最大化し、コントラスト内は治療用ペプチドと非治療用ペプチドを区別し、配列/構造埋め込みの相違を最大化する。
幅広い実験により、MMCDは、抗微生物/抗がん剤スコア、多様性、ペプチドドッキングなど、さまざまな指標で治療ペプチドの生成において、他の最先端の深層生成法よりも優れた性能を示すことが示された。
関連論文リスト
- Structure Language Models for Protein Conformation Generation [66.42864253026053]
伝統的な物理学に基づくシミュレーション手法は、しばしばサンプリング平衡整合に苦しむ。
深い生成モデルは、より効率的な代替としてタンパク質のコンホメーションを生成することを約束している。
本稿では,効率的なタンパク質コンホメーション生成のための新しいフレームワークとして構造言語モデリングを紹介する。
論文 参考訳(メタデータ) (2024-10-24T03:38:51Z) - DPLM-2: A Multimodal Diffusion Protein Language Model [75.98083311705182]
DPLM-2は, 離散拡散タンパク質言語モデル(DPLM)を拡張し, 配列と構造の両方に適合する多モーダルタンパク質基盤モデルである。
DPLM-2は、配列と構造、およびその限界と条件の結合分布を学習する。
実験によりDPLM-2は高度に互換性のあるアミノ酸配列とそれに対応する3D構造を同時に生成できることが示された。
論文 参考訳(メタデータ) (2024-10-17T17:20:24Z) - AuD-Former: A Hierarchical Transformer Network for Multimodal Audio-Based Disease Prediction [6.175036031779841]
生体音響モダリティ内の様々な領域の機能を統合したマルチモーダル融合は,診断性能の向上に有効であることが証明された。
この分野の既存の手法のほとんどは、モーダル内またはモーダル間融合にのみ焦点をあてる一方的な融合戦略を採用している。
一般的なマルチモーダルオーディオベースの疾患予測のために設計された階層型トランスフォーマーネットワークであるAuD-Formerを提案する。
論文 参考訳(メタデータ) (2024-10-11T22:37:52Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Large-Scale Multi-omic Biosequence Transformers for Modeling Peptide-Nucleotide Interactions [2.84640003522012]
本研究は,最初のマルチオミックヌクレオチド-ペプチド基盤モデルについて述べる。
これらのマルチオミクスモデルは、様々な単一オミクス分布間の結合表現を学習可能であることを示す。
また,MOMはペプチド-ヌクレオチド相互作用タスクにおける最先端の結果を得るために微調整できることを示した。
論文 参考訳(メタデータ) (2024-08-29T03:56:40Z) - MoFormer: Multi-objective Antimicrobial Peptide Generation Based on Conditional Transformer Joint Multi-modal Fusion Descriptor [15.98003148948758]
AMPの多属性同時最適化のための多目的AMP合成パイプライン(MoFormer)を構築した。
MoFormerは、条件付き制約ときめ細かいマルチディスクリプタによってガイドされる、高度に構造化された潜在空間におけるAMPシーケンスの望ましい属性を改善している。
抗微生物活性の増強と溶血の最小化により,MoFormerは既存の方法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-03T07:17:18Z) - MATE-Pred: Multimodal Attention-based TCR-Epitope interaction Predictor [1.933856957193398]
T細胞受容体と細胞間の正確な結合予測は、免疫療法の成功戦略に決定的に寄与する。
本稿では,T細胞受容体と親和性結合機構の注意に基づく予測を行う,信頼性の高い新しい手法であるMATE-Predを提案する。
MATE-Predのパフォーマンスは、薬物発見における潜在的な応用を予想している。
論文 参考訳(メタデータ) (2023-12-05T11:30:00Z) - Co-modeling the Sequential and Graphical Routes for Peptide
Representation Learning [67.66393016797181]
本稿では,表現の相互情報を強化するためのペプチド共モデリング手法RepConを提案する。
RepConは、正のサンプルペア間の表現の一貫性を高め、負のペア間の表現を撃退することを学ぶ。
この結果から,コモデリング手法が独立モデルよりも優れていること,コモデリングフレームワーク下での他の手法よりもRepConの方が優れていることが示唆された。
論文 参考訳(メタデータ) (2023-10-04T16:58:25Z) - Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning [52.72369034247396]
モーダリティ拡散プロセスと残差グランシングサンプリングを併用した拡散グランシング変換器を提案する。
DIFFGLATは、自己回帰モデルと非自己回帰モデルの両方と比較して、高速な復号速度を維持しながら、より優れた生成精度を実現する。
論文 参考訳(メタデータ) (2022-12-20T13:36:25Z) - Unified Discrete Diffusion for Simultaneous Vision-Language Generation [78.21352271140472]
本稿では,「モダリティ変換」タスクと「マルチモダリティ生成」タスクの両方を実行することができる統一型マルチモーダル生成モデルを提案する。
具体的には,マルチモーダル信号の離散拡散過程を統一遷移行列を用いて統一する。
提案手法は, 様々な生成タスクにおいて, 最先端のソリューションと同等に動作可能である。
論文 参考訳(メタデータ) (2022-11-27T14:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。