論文の概要: Fast non-autoregressive inverse folding with discrete diffusion
- arxiv url: http://arxiv.org/abs/2312.02447v1
- Date: Tue, 5 Dec 2023 02:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:04:15.732907
- Title: Fast non-autoregressive inverse folding with discrete diffusion
- Title(参考訳): 離散拡散を伴う高速非自己回帰逆折り畳み
- Authors: John J. Yang, Jason Yim, Regina Barzilay, Tommi Jaakkola
- Abstract要約: 本稿では,CATHベンチマークの性能を損なうことなく,一定回数の呼び出しによって23倍の速度で推論を行う非自己回帰的な代替手法について述べる。
提案手法は,拡散速度を変調することにより,推定速度と精度のトレードオフの柔軟性を与える。
- 参考スコア(独自算出の注目度): 27.61401842249656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating protein sequences that fold into a intended 3D structure is a
fundamental step in de novo protein design. De facto methods utilize
autoregressive generation, but this eschews higher order interactions that
could be exploited to improve inference speed. We describe a non-autoregressive
alternative that performs inference using a constant number of calls resulting
in a 23 times speed up without a loss in performance on the CATH benchmark.
Conditioned on the 3D structure, we fine-tune ProteinMPNN to perform discrete
diffusion with a purity prior over the index sampling order. Our approach gives
the flexibility in trading off inference speed and accuracy by modulating the
diffusion speed. Code: https://github.com/johnyang101/pmpnndiff
- Abstract(参考訳): 意図した3D構造に折り畳まれたタンパク質配列を生成することは、デノボタンパク質設計の基本的なステップである。
デファクト法は自己回帰生成を利用するが、これは推論速度を改善するために利用可能な高次相互作用を誘発する。
本稿では,CATHベンチマークの性能を損なうことなく,一定回数の呼び出しによって23倍の速度で推論を行う非自己回帰的な代替手法について述べる。
3次元構造を条件として,pmpnnを微調整し,指標サンプリング順序よりも先に純度で離散拡散を行う。
提案手法は,拡散速度を変調することで,推定速度と精度をトレードオフする柔軟性を与える。
コード: https://github.com/johnyang101/pmpnndiff
関連論文リスト
- Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - DiffuSeq-v2: Bridging Discrete and Continuous Text Spaces for
Accelerated Seq2Seq Diffusion Models [58.450152413700586]
ガウス空間に基づく離散突然変異を再構成する学習において拡散モデルを容易にする軟吸収状態を導入する。
我々は、サンプリングプロセスの高速化のために、連続空間内で最先端のODEソルバを用いている。
提案手法は, トレーニング収束率を4倍に向上させ, 類似品質のサンプルを800倍高速に生成する。
論文 参考訳(メタデータ) (2023-10-09T15:29:10Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Conffusion: Confidence Intervals for Diffusion Models [32.36217153362305]
現在の拡散法は、生成された結果に関する統計的保証を提供していない。
我々は,1つの前方通過における間隔境界を予測するために,事前学習した拡散モデルを微調整する融合法を提案する。
コンフュージョンは3桁の精度でベースライン法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-17T18:58:15Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。