論文の概要: Guided Generative Protein Design using Regularized Transformers
- arxiv url: http://arxiv.org/abs/2201.09948v1
- Date: Mon, 24 Jan 2022 20:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 15:34:40.847138
- Title: Guided Generative Protein Design using Regularized Transformers
- Title(参考訳): 正規化トランスフォーマーを用いた誘導型タンパク質設計
- Authors: Egbert Castro, Abhinav Godavarthi, Julian Rubinfien, Kevin B.
Givechian, Dhananjay Bhaskar, Smita Krishnaswamy
- Abstract要約: 本稿では,シーケンス生成と適合性の予測を共同で行うディープトランスを用いたオートエンコーダであるReleularized Latent Space Optimization (ReLSO)を紹介する。
大規模ラベル付きデータセットの基本的なシーケンス関数のランドスケープを明示的にモデル化し,勾配に基づく手法を用いて潜在空間内を最適化する。
- 参考スコア(独自算出の注目度): 5.425399390255931
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of powerful natural language models have increased the
ability to learn meaningful representations of protein sequences. In addition,
advances in high-throughput mutagenesis, directed evolution, and
next-generation sequencing have allowed for the accumulation of large amounts
of labeled fitness data. Leveraging these two trends, we introduce Regularized
Latent Space Optimization (ReLSO), a deep transformer-based autoencoder which
is trained to jointly generate sequences as well as predict fitness. Using
ReLSO, we explicitly model the underlying sequence-function landscape of large
labeled datasets and optimize within latent space using gradient-based methods.
Through regularized prediction heads, ReLSO introduces a powerful protein
sequence encoder and novel approach for efficient fitness landscape traversal.
- Abstract(参考訳): 強力な自然言語モデルの開発は、タンパク質配列の有意義な表現を学習する能力を高めた。
さらに、高スループット変異発生、指向進化、次世代シークエンシングの進歩により、大量のラベル付きフィットネスデータが蓄積できるようになった。
この2つのトレンドを生かしたReleularized Latent Space Optimization (RELSO)は、ディープトランスフォーマーをベースとしたオートエンコーダで、シーケンスを共同生成し、適合度を予測する。
relsoを用いて,大規模ラベル付きデータセットの基底となるシーケンス関数のランドスケープを明示的にモデル化し,勾配に基づく手法を用いて潜在空間内で最適化する。
正規化予測ヘッドを通じて、ReLSOは強力なタンパク質配列エンコーダと、効率の良いフィットネスランドスケープトラバースのための新しいアプローチを導入した。
関連論文リスト
- Heuristically Adaptive Diffusion-Model Evolutionary Strategy [1.8299322342860518]
拡散モデル(Diffusion Models)は、生成モデルにおいて重要な進歩を示す。
本研究は,拡散モデルと進化的アルゴリズムの基本的な関係を明らかにする。
我々のフレームワークは、進化的最適化プロセスにおいて、柔軟性、精度、制御性を高めたアルゴリズム上の大きな遷移を示す。
論文 参考訳(メタデータ) (2024-11-20T16:06:28Z) - Semantically Rich Local Dataset Generation for Explainable AI in Genomics [0.716879432974126]
ゲノム配列に基づいて訓練されたブラックボックス深層学習モデルは、異なる遺伝子制御機構の結果を予測するのに優れている。
本稿では、遺伝的プログラミングを用いて、その意味的多様性に寄与する配列の摂動を進化させることによりデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-03T10:31:30Z) - Diffusion Language Models Are Versatile Protein Learners [75.98083311705182]
本稿では,タンパク質配列の強い生成および予測能力を示す多目的なタンパク質言語モデルである拡散タンパク質言語モデル(DPLM)を紹介する。
まず, 自己制御型離散拡散確率フレームワークを用いて, 進化的タンパク質配列からのスケーラブルDPLMの事前学習を行った。
プレトレーニング後、DPLMは非条件生成のための構造的に可塑性で新規で多様なタンパク質配列を生成する能力を示す。
論文 参考訳(メタデータ) (2024-02-28T18:57:56Z) - ETDock: A Novel Equivariant Transformer for Protein-Ligand Docking [36.14826783009814]
従来のドッキング法は、タンパク質と薬物のドッキングを予測するために、スコアリング機能とディープラーニングに依存している。
本稿では,タンパク質リガンドドッキングポーズ予測のためのトランスフォーマーニューラルネットワークを提案する。
実データを用いた実験結果から,本モデルが最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-12T06:23:12Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Score-Guided Intermediate Layer Optimization: Fast Langevin Mixing for
Inverse Problem [97.64313409741614]
ランダム重み付きDNNジェネレータを反転させるため,Langevinアルゴリズムの定常分布を高速に混合し,特徴付ける。
本稿では,事前学習した生成モデルの潜時空間における後部サンプリングを提案する。
論文 参考訳(メタデータ) (2022-06-18T03:47:37Z) - Generative power of a protein language model trained on multiple
sequence alignments [0.5639904484784126]
進化に関連したタンパク質配列の大規模なアンサンブルから始まる計算モデルは、タンパク質ファミリーの表現を捉えている。
MSA Transformerのような複数の配列アライメントに基づいて訓練されたタンパク質言語モデルは、この目的に対して非常に魅力的な候補である。
マスク付き言語モデリングの目的を直接利用して,MSA変換器を用いてシーケンスを生成する反復手法を提案し,検証する。
論文 参考訳(メタデータ) (2022-04-14T16:59:05Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - EBM-Fold: Fully-Differentiable Protein Folding Powered by Energy-based
Models [53.17320541056843]
本研究では,データ駆動型生成ネットワークを用いたタンパク質構造最適化手法を提案する。
EBM-Foldアプローチは,従来のロゼッタ構造最適化ルーチンと比較して,高品質なデコイを効率よく生成できる。
論文 参考訳(メタデータ) (2021-05-11T03:40:29Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。