論文の概要: TCR-GPT: Integrating Autoregressive Model and Reinforcement Learning for T-Cell Receptor Repertoires Generation
- arxiv url: http://arxiv.org/abs/2408.01156v1
- Date: Fri, 2 Aug 2024 10:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 13:47:29.388808
- Title: TCR-GPT: Integrating Autoregressive Model and Reinforcement Learning for T-Cell Receptor Repertoires Generation
- Title(参考訳): TCR-GPT:T細胞受容体レパートリー生成のための自己回帰モデルと強化学習の統合
- Authors: Yicheng Lin, Dandan Zhang, Yun Liu,
- Abstract要約: T細胞受容体(TCR)は、感染またはがん細胞によって提示される特定の抗原を認識し、結合することによって免疫系において重要な役割を担っている。
自動回帰変換器のような言語モデルは、TCRレパートリーの確率分布を学習することで強力な解を提供する。
本稿では,デコーダのみのトランスアーキテクチャ上に構築された確率モデルTCR-GPTを紹介する。
- 参考スコア(独自算出の注目度): 6.920411338236452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: T-cell receptors (TCRs) play a crucial role in the immune system by recognizing and binding to specific antigens presented by infected or cancerous cells. Understanding the sequence patterns of TCRs is essential for developing targeted immune therapies and designing effective vaccines. Language models, such as auto-regressive transformers, offer a powerful solution to this problem by learning the probability distributions of TCR repertoires, enabling the generation of new TCR sequences that inherit the underlying patterns of the repertoire. We introduce TCR-GPT, a probabilistic model built on a decoder-only transformer architecture, designed to uncover and replicate sequence patterns in TCR repertoires. TCR-GPT demonstrates an accuracy of 0.953 in inferring sequence probability distributions measured by Pearson correlation coefficient. Furthermore, by leveraging Reinforcement Learning(RL), we adapted the distribution of TCR sequences to generate TCRs capable of recognizing specific peptides, offering significant potential for advancing targeted immune therapies and vaccine development. With the efficacy of RL, fine-tuned pretrained TCR-GPT models demonstrated the ability to produce TCR repertoires likely to bind specific peptides, illustrating RL's efficiency in enhancing the model's adaptability to the probability distributions of biologically relevant TCR sequences.
- Abstract(参考訳): T細胞受容体(TCR)は、感染またはがん細胞によって提示される特定の抗原を認識し、結合することによって免疫系において重要な役割を担っている。
TCRの配列パターンを理解することは、標的となる免疫療法を開発し、効果的なワクチンを設計するのに不可欠である。
自動回帰変換器のような言語モデルは、TCRレパートリーの確率分布を学習し、レパートリーの基本パターンを継承する新しいTCRシーケンスを生成することにより、この問題に対する強力な解決策を提供する。
本稿では,デコーダのみのトランスアーキテクチャ上に構築された確率モデルTCR-GPTを紹介する。
TCR-GPTはピアソン相関係数によって測定されたシーケンス確率分布の推定において0.953の精度を示す。
さらに, 強化学習(Reinforcement Learning, RL)を活用することで, TCR配列の分布を, 特定のペプチドを認識できるTCRの生成に適用し, 標的とする免疫療法やワクチン開発に有意義な可能性を示唆した。
RLの有効性により、微調整されたTCR-GPTモデルにより、特定のペプチドに結合する可能性のあるTCRレパートリーを生産する能力が示され、生物学的に関連するTCR配列の確率分布へのモデルの適応性を高める上でRLの効率が示された。
関連論文リスト
- Predicting T-Cell Receptor Specificity [7.258321140371502]
我々は,ランダムフォレストアルゴリズムに基づいて,抗原セレクタとTCR分類器からなるTCR生成特異性検出フレームワークを構築した。
モデルの性能を通常のディープラーニング手法と比較するために,k-fold Validation法を用いた。
論文 参考訳(メタデータ) (2024-07-27T23:21:07Z) - A large language model for predicting T cell receptor-antigen binding specificity [4.120928123714289]
本稿では,モデル一般化の限界を克服するMasked Language Model (MLM)を提案する。
具体的には、ランダムにシーケンスセグメントをマスキングし、tcrLMをトレーニングしてマスクセグメントを推論し、TCRシーケンスから表現的特徴を抽出する。
実験の結果,tcrLM は独立テストセットと外部検証セットで 0.937 と 0.933 の AUC 値を達成できた。
論文 参考訳(メタデータ) (2024-06-24T08:36:40Z) - Fast Context-Biasing for CTC and Transducer ASR models with CTC-based Word Spotter [57.64003871384959]
この研究は、CTCベースのWord Spotterでコンテキストバイアスを高速化するための新しいアプローチを示す。
提案手法は,CTCログ確率をコンパクトなコンテキストグラフと比較し,潜在的なコンテキストバイアス候補を検出する。
その結果、FスコアとWERの同時改善により、文脈バイアス認識の大幅な高速化が示された。
論文 参考訳(メタデータ) (2024-06-11T09:37:52Z) - AIRIVA: A Deep Generative Model of Adaptive Immune Repertoires [6.918664738267051]
本稿では,TCRレパートリーの低次元,解釈可能,構成的表現を学習し,レパートリーの系統的効果を阻害する適応型免疫レパートリー不変変分オートエンコーダ(AIRIVA)を提案する。
論文 参考訳(メタデータ) (2023-04-26T14:40:35Z) - T Cell Receptor Protein Sequences and Sparse Coding: A Novel Approach to
Cancer Classification [4.824821328103934]
T細胞受容体(TCR)は、適応免疫系に必須のタンパク質である。
近年のシークエンシング技術の進歩により、TCRレパートリーの包括的なプロファイリングが可能になった。
これにより、強力な抗がん活性を持つTCRの発見とTCRベースの免疫療法の開発につながった。
論文 参考訳(メタデータ) (2023-04-25T20:43:41Z) - T-Cell Receptor Optimization with Reinforcement Learning and Mutation
Policies for Precesion Immunotherapy [21.004878412411053]
T細胞受容体(TCR)は、T細胞の表面にあるタンパク質複合体であり、ペプチドに結合することができる。
このプロセスはTCR認識と呼ばれ、免疫応答の重要なステップを構成する。
本稿では、強化学習問題として最適化されたTCRの探索を定式化し、突然変異ポリシーを備えたフレームワークTCRPPOを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:25:14Z) - From Cloze to Comprehension: Retrofitting Pre-trained Masked Language
Model to Pre-trained Machine Reader [130.45769668885487]
Pre-trained Machine Reader (PMR) は、ラベル付きデータを取得することなく、MLMを事前学習機械読解(MRC)モデルに適合させる新しい手法である。
提案したPMRを構築するために,多量の汎用および高品質なMRCスタイルのトレーニングデータを構築した。
PMRは、MRCの定式化における様々な抽出および分類タスクに対処するための統一モデルとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-12-09T10:21:56Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Sequence Transduction with Graph-based Supervision [96.04967815520193]
ラベルのグラフ表現を受け入れるためにRNN-T損失を一般化するトランスデューサ目的関数を提案する。
CTC型格子を用いたトランスデューサベースのASRは,標準RNN-Tよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-11-01T21:51:42Z) - Probabilistic Generating Circuits [50.98473654244851]
効率的な表現のための確率的生成回路(PGC)を提案する。
PGCは、非常に異なる既存モデルを統一する理論的なフレームワークであるだけでなく、現実的なデータをモデル化する大きな可能性も示している。
我々はPCとDPPの単純な組み合わせによって簡単に仮定されない単純なPGCのクラスを示し、一連の密度推定ベンチマークで競合性能を得る。
論文 参考訳(メタデータ) (2021-02-19T07:06:53Z) - Pretraining Techniques for Sequence-to-Sequence Voice Conversion [57.65753150356411]
シークエンス・トゥ・シークエンス(seq2seq)音声変換(VC)モデルは、韻律を変換する能力によって魅力的である。
我々は,大規模コーパスが容易に利用できる他の音声処理タスク(通常,テキスト音声(TTS)と自動音声認識(ASR))から知識を伝達することを提案する。
このような事前訓練されたASRまたはTSモデルパラメータを持つVCモデルは、高忠実で高知能な変換可能な音声に対して効果的な隠れ表現を生成することができると論じる。
論文 参考訳(メタデータ) (2020-08-07T11:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。