論文の概要: Enhancing TCR-Peptide Interaction Prediction with Pretrained Language Models and Molecular Representations
- arxiv url: http://arxiv.org/abs/2505.01433v1
- Date: Tue, 22 Apr 2025 20:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-11 11:26:45.180168
- Title: Enhancing TCR-Peptide Interaction Prediction with Pretrained Language Models and Molecular Representations
- Title(参考訳): 事前学習言語モデルと分子表現を用いたTCR-ペプチド相互作用予測の強化
- Authors: Cong Qi, Hanzhang Fang, Siqi jiang, Tianxing Hu, Wei Zhi,
- Abstract要約: 本稿では,大規模タンパク質言語モデルとペプチドの化学表現を組み合わせたディープラーニングフレームワークLANTERNを提案する。
我々のモデルは、特にゼロショットと少数ショットの学習シナリオにおいて、優れたパフォーマンスを示す。
これらの結果は, LANTERNがTCR-pMHC結合予測を前進させ, パーソナライズされた免疫療法の開発を支援する可能性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 0.39945675027960637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the binding specificity between T-cell receptors (TCRs) and peptide-major histocompatibility complexes (pMHCs) is central to immunotherapy and vaccine development. However, current predictive models struggle with generalization, especially in data-scarce settings and when faced with novel epitopes. We present LANTERN (Large lAnguage model-powered TCR-Enhanced Recognition Network), a deep learning framework that combines large-scale protein language models with chemical representations of peptides. By encoding TCR \b{eta}-chain sequences using ESM-1b and transforming peptide sequences into SMILES strings processed by MolFormer, LANTERN captures rich biological and chemical features critical for TCR-peptide recognition. Through extensive benchmarking against existing models such as ChemBERTa, TITAN, and NetTCR, LANTERN demonstrates superior performance, particularly in zero-shot and few-shot learning scenarios. Our model also benefits from a robust negative sampling strategy and shows significant clustering improvements via embedding analysis. These results highlight the potential of LANTERN to advance TCR-pMHC binding prediction and support the development of personalized immunotherapies.
- Abstract(参考訳): T細胞受容体(TCR)とペプチド-マヨル組織適合性複合体(pMHC)の結合特異性を理解することは、免疫療法とワクチン開発の中心である。
しかし、現在の予測モデルは、特にデータスカース設定や新しいエピトープに直面する場合、一般化に苦慮している。
本稿では,大規模タンパク質言語モデルとペプチドの化学表現を組み合わせたディープラーニングフレームワークであるLANTERN(Large lAnguage model-powered TCR-Enhanced Recognition Network)を提案する。
ESM-1bを用いてTCR \b{eta}鎖配列をコードし、MolFormerによって処理されたSMILES文字列にペプチド配列を変換することにより、LANTERNはTCRペプチド認識に必須な豊富な生物学的および化学的特徴を捉える。
ChemBERTa、TITAN、NetTCRといった既存のモデルに対する広範なベンチマークを通じて、LANTERNは、特にゼロショットおよび少数ショットの学習シナリオにおいて、優れたパフォーマンスを示す。
モデルはまた,ロバストなネガティブサンプリング戦略の恩恵を受け,埋め込み解析によるクラスタリングの大幅な改善を示す。
これらの結果は, LANTERNがTCR-pMHC結合予測を前進させ, パーソナライズされた免疫療法の開発を支援する可能性を浮き彫りにした。
関連論文リスト
- T-cell receptor specificity landscape revealed through de novo peptide design [2.37499051649312]
主要組織適合性複合体(MHC)に発現するT細胞受容体(TCR)と病原体由来ペプチドの効果的な結合は免疫応答を媒介する。
本稿では,MHCクラスIアレルに提示されるペプチドとのTCR相互作用を予測し,特定のTCR-MHC複合体に新規な免疫原性ペプチドを設計するための計算手法を提案する。
本手法は免疫原性ペプチドとネオ抗原設計のためのプラットフォームを提供し,ウイルスや癌に対するT細胞ワクチン開発のための新しい計算経路を開拓する。
論文 参考訳(メタデータ) (2025-03-01T22:45:19Z) - GENERator: A Long-Context Generative Genomic Foundation Model [66.46537421135996]
本稿では,98k塩基対 (bp) と1.2Bパラメータからなるゲノム基盤モデル GENERator を提案する。
DNAの386Bbpからなる拡張データセットに基づいて、GENERatorは、確立されたベンチマークと新しく提案されたベンチマークの両方で最先端のパフォーマンスを実証する。
また、特に特定のアクティビティプロファイルを持つエンハンサーシーケンスを即応的に生成することで、シーケンス最適化において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-02-11T05:39:49Z) - Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - TCR-GPT: Integrating Autoregressive Model and Reinforcement Learning for T-Cell Receptor Repertoires Generation [6.920411338236452]
T細胞受容体(TCR)は、感染またはがん細胞によって提示される特定の抗原を認識し、結合することによって免疫系において重要な役割を担っている。
自動回帰変換器のような言語モデルは、TCRレパートリーの確率分布を学習することで強力な解を提供する。
本稿では,デコーダのみのトランスアーキテクチャ上に構築された確率モデルTCR-GPTを紹介する。
論文 参考訳(メタデータ) (2024-08-02T10:16:28Z) - Contrastive learning of T cell receptor representations [11.053778245621544]
データ効率のよい転送学習が可能なTCR言語モデルSCEPTRを導入する。
本稿では,自己コントラスト学習とマスク付き言語モデリングを組み合わせた新しい事前学習戦略を提案する。
コントラスト学習は,TCRの特異性のルールを復号化するための有用なパラダイムとして期待できる。
論文 参考訳(メタデータ) (2024-06-10T15:50:45Z) - Efficient Prediction of Peptide Self-assembly through Sequential and
Graphical Encoding [57.89530563948755]
この研究は、高度なディープラーニングモデルを用いたペプチドエンコーディングのベンチマーク分析を提供する。
等電点や水和自由エネルギーなど、幅広いペプチド関連予測のガイドとして機能する。
論文 参考訳(メタデータ) (2023-07-17T00:43:33Z) - Reprogramming Pretrained Language Models for Antibody Sequence Infilling [72.13295049594585]
抗体の計算設計には、構造的一貫性を維持しながら、新規で多様な配列を生成することが含まれる。
近年のディープラーニングモデルでは優れた結果が得られたが、既知の抗体配列/構造対の数が限られているため、性能が劣化することが多い。
これは、ソース言語でトレーニング済みのモデルを再利用して、異なる言語で、データが少ないタスクに適応するものです。
論文 参考訳(メタデータ) (2022-10-05T20:44:55Z) - Attention-aware contrastive learning for predicting T cell
receptor-antigen binding specificity [7.365824008999903]
細胞表面のMHCクラスI分子によって提示される新規抗原のごく一部のみがT細胞を誘導できることが確認されている。
そこで本研究では,TCR-抗原結合特異性を推定するためのattentive-mask contrastive learning model,ATMTCRを提案する。
論文 参考訳(メタデータ) (2022-05-17T10:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。