論文の概要: Anfinsen Goes Neural: a Graphical Model for Conditional Antibody Design
- arxiv url: http://arxiv.org/abs/2402.05982v1
- Date: Thu, 8 Feb 2024 13:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:06:46.737386
- Title: Anfinsen Goes Neural: a Graphical Model for Conditional Antibody Design
- Title(参考訳): anfinsen goes neural:条件付き抗体設計のためのグラフィカルモデル
- Authors: Nayoung Kim, Minsu Kim, Jinkyoo Park
- Abstract要約: Anfinsen Goes Neural(AGN)は、Anfinsen's dogmaと呼ばれるタンパク質をコードするグラフィカルモデルである。
我々のフレームワークは、pLMによるシーケンス生成とグラフニューラルネットワーク(GNN)による構造予測の2段階プロセスに従う。
実験により,本手法はベンチマーク実験において最先端の結果より優れていることが示された。
- 参考スコア(独自算出の注目度): 44.28649585100881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Antibody design plays a pivotal role in advancing therapeutics. Although deep
learning has made rapid progress in this field, existing methods make limited
use of general protein knowledge and assume a graphical model (GM) that
violates empirical findings on proteins. To address these limitations, we
present Anfinsen Goes Neural (AGN), a graphical model that uses a pre-trained
protein language model (pLM) and encodes a seminal finding on proteins called
Anfinsen's dogma. Our framework follows a two-step process of sequence
generation with pLM and structure prediction with graph neural network (GNN).
Experiments show that our approach outperforms state-of-the-art results on
benchmark experiments. We also address a critical limitation of
non-autoregressive models -- namely, that they tend to generate unrealistic
sequences with overly repeating tokens. To resolve this, we introduce a
composition-based regularization term to the cross-entropy objective that
allows an efficient trade-off between high performance and low token
repetition. We demonstrate that our approach establishes a Pareto frontier over
the current state-of-the-art. Our code is available at
https://github.com/lkny123/AGN.
- Abstract(参考訳): 抗体設計は治療の進行に重要な役割を果たしている。
ディープラーニングはこの分野で急速に進歩しているが、既存の手法では一般的なタンパク質の知識を限定的に利用し、タンパク質の実証的な発見に反するグラフィカルモデル(GM)を仮定している。
これらの制限に対処するために,プリトレーニングタンパク質言語モデル(plm)を使用して,anfinsen's dogmaと呼ばれるタンパク質の独創的発見をコードするグラフィックモデルであるanfinsen goes neural(agn)を提案する。
我々のフレームワークは、pLMによるシーケンス生成とグラフニューラルネットワーク(GNN)による構造予測の2段階のプロセスに従う。
ベンチマーク実験において,本手法が最先端の成果を上回っていることを示す実験を行った。
また、非自己回帰モデルの限界、すなわち過剰な繰り返しトークンを含む非現実的なシーケンスを生成する傾向があることにも対処します。
これを解決するために,クロスエントロピー目的に合成に基づく正規化項を導入し,高い性能と低いトークン繰り返しの効率的なトレードオフを可能にする。
われわれのアプローチが現在最先端のParetoフロンティアを確立することを実証する。
私たちのコードはhttps://github.com/lkny123/agnで利用可能です。
関連論文リスト
- COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Inverse folding for antibody sequence design using deep learning [2.8998926117101367]
本稿では, 抗体構造に特異的に最適化した, 精密な折り畳み逆モデルを提案する。
本研究では、相補性決定領域の標準的コンフォーメーションについて検討し、これらのループの既知のクラスタへの符号化を改善した。
論文 参考訳(メタデータ) (2023-10-30T13:12:41Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Extrapolative Controlled Sequence Generation via Iterative Refinement [22.42501277690634]
本研究では,外挿制御生成の問題,すなわち,トレーニングで見られる範囲を超えて属性値を持つシーケンスを生成する問題について検討する。
本研究では,反復的制御外挿法 (ICE) を提案する。
1つの自然言語タスク(感覚分析)と2つのタンパク質工学タスク(ACE2安定性とAAV適合性)の結果、ICEは単純さにもかかわらず最先端のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2023-03-08T13:21:27Z) - Reprogramming Pretrained Language Models for Antibody Sequence Infilling [72.13295049594585]
抗体の計算設計には、構造的一貫性を維持しながら、新規で多様な配列を生成することが含まれる。
近年のディープラーニングモデルでは優れた結果が得られたが、既知の抗体配列/構造対の数が限られているため、性能が劣化することが多い。
これは、ソース言語でトレーニング済みのモデルを再利用して、異なる言語で、データが少ないタスクに適応するものです。
論文 参考訳(メタデータ) (2022-10-05T20:44:55Z) - Benchmarking deep generative models for diverse antibody sequence design [18.515971640245997]
シーケンスのみから、あるいはシーケンスと構造を共同で学習する深層生成モデルは、このタスクにおいて印象的なパフォーマンスを示している。
最近提案されたタンパク質設計のための3つの深い生成フレームワークについて考察する: (AR) 配列ベースの自己回帰生成モデル、(GVP) 正確な構造ベースのグラフニューラルネットワーク、そして3次元折り畳みのファジィでスケールフリーな表現を利用するFold2Seq。
我々は,これらのモデルを,機能的含意に高い多様性を持つ設計配列を必要とする抗体配列の計算設計のタスクに基づいてベンチマークする。
論文 参考訳(メタデータ) (2021-11-12T16:23:32Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。