論文の概要: Integrating Deep Learning and Synthetic Biology: A Co-Design Approach
for Enhancing Gene Expression via N-terminal Coding Sequences
- arxiv url: http://arxiv.org/abs/2402.13297v1
- Date: Tue, 20 Feb 2024 05:41:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 18:22:57.009322
- Title: Integrating Deep Learning and Synthetic Biology: A Co-Design Approach
for Enhancing Gene Expression via N-terminal Coding Sequences
- Title(参考訳): 深層学習と合成生物学の統合:n末端コード配列による遺伝子発現増強のための共同設計アプローチ
- Authors: Zhanglu Yan, Weiran Chu, Yuhua Sheng, Kaiwen Tang, Shida Wang, Yanfeng
Liu, Weng-Fai Wong
- Abstract要約: N末端コーディング配列(NCS)は翻訳開始率に影響を与えることで遺伝子発現に影響を与える。
合理的設計や統計誘導アプローチなどのNAS最適化の現在の手法は、労働集約的な収量改善に過ぎない。
本稿では,NCS最適化のための深層学習・合成生物学を共同設計した数発の訓練ワークフローを提案する。
- 参考スコア(独自算出の注目度): 5.2418104437201265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: N-terminal coding sequence (NCS) influences gene expression by impacting the
translation initiation rate. The NCS optimization problem is to find an NCS
that maximizes gene expression. The problem is important in genetic
engineering. However, current methods for NCS optimization such as rational
design and statistics-guided approaches are labor-intensive yield only
relatively small improvements. This paper introduces a deep learning/synthetic
biology co-designed few-shot training workflow for NCS optimization. Our method
utilizes k-nearest encoding followed by word2vec to encode the NCS, then
performs feature extraction using attention mechanisms, before constructing a
time-series network for predicting gene expression intensity, and finally a
direct search algorithm identifies the optimal NCS with limited training data.
We took green fluorescent protein (GFP) expressed by Bacillus subtilis as a
reporting protein of NCSs, and employed the fluorescence enhancement factor as
the metric of NCS optimization. Within just six iterative experiments, our
model generated an NCS (MLD62) that increased average GFP expression by
5.41-fold, outperforming the state-of-the-art NCS designs. Extending our
findings beyond GFP, we showed that our engineered NCS (MLD62) can effectively
boost the production of N-acetylneuraminic acid by enhancing the expression of
the crucial rate-limiting GNA1 gene, demonstrating its practical utility. We
have open-sourced our NCS expression database and experimental procedures for
public use.
- Abstract(参考訳): N末端コーディング配列(NCS)は翻訳開始率に影響を与えることで遺伝子発現に影響を与える。
NCS最適化問題は、遺伝子発現を最大化するNCSを見つけることである。
その問題は遺伝工学において重要である。
しかし, 合理的設計や統計誘導手法などのncs最適化手法は, 比較的小さな改善しか得られていない。
本稿では,NCS最適化のための深層学習・合成生物学と数発の訓練ワークフローを提案する。
提案手法では,k-nearestエンコーディングに続いて2vecという単語を用いてNASを符号化し,次に注意機構を用いて特徴抽出を行い,その後,遺伝子発現強度を予測する時系列ネットワークを構築する。
NCSの報告タンパク質としてBacillus subtilisで発現する緑色蛍光タンパク質 (GFP) を, NCS最適化の指標として蛍光増強因子を用いた。
わずか6回の反復実験で, GFP発現を5.41倍に向上させるNAS(MLD62)を作成した。
以上の結果から,本発明のncs (mld62) は重要なレート制限型gna1遺伝子の発現を増強することにより,n-アセチルニューロラミン酸の産生を効果的に促進し,その実用性を示した。
NCS式データベースと公開のための実験手順をオープンソース化した。
関連論文リスト
- Evolving Efficient Genetic Encoding for Deep Spiking Neural Networks [10.368223587448382]
Spiking Neural Networks(SNN)は、ANN(Artificial Networks)に代わる低エネルギーの代替手段を提供する
既存のSNNモデルは、多くの時間ステップとネットワーク深さとスケールのために、依然として高い計算コストに直面している。
大規模深部SNNを低コストで制御するために動的に進化する効率的な遺伝的エンコーディング戦略を提案する。
論文 参考訳(メタデータ) (2024-11-11T08:40:52Z) - Stochastic Gradient Descent for Two-layer Neural Networks [2.0349026069285423]
本稿では、過パラメータ化された2層ニューラルネットワークに適用した場合の降下(SGD)アルゴリズムの収束率について検討する。
提案手法は,NTKのタンジェントカーネル(NTK)近似と,NTKが生成する再生カーネル空間(RKHS)の収束解析を組み合わせたものである。
我々の研究フレームワークは、カーネルメソッドと最適化プロセスの間の複雑な相互作用を探索し、ニューラルネットワークのダイナミクスと収束特性に光を当てることを可能にする。
論文 参考訳(メタデータ) (2024-07-10T13:58:57Z) - Regularized Gauss-Newton for Optimizing Overparameterized Neural Networks [2.0072624123275533]
一般化されたガウスニュートン(GGN)最適化法は、曲率推定を解法に組み込む。
本研究では、2層ニューラルネットワークを明示的な正規化で最適化するGGN法について検討する。
論文 参考訳(メタデータ) (2024-04-23T10:02:22Z) - Dynamic Backtracking in GFlowNets: Enhancing Decision Steps with Reward-Dependent Adjustment Mechanisms [16.290568463440618]
本稿では,新規なGFN, Dynamic Backtracking GFN(DB-GFN)を提案する。
DB-GFNは、現在の状態の報酬値に応じて、ネットワーク構築プロセス中のバックトラックを可能にする。
LS-GFNやGTBなどのGFNモデルよりも、サンプル品質、サンプル探索量、トレーニング収束速度が優れている。
論文 参考訳(メタデータ) (2024-04-08T14:52:48Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - SNP2Vec: Scalable Self-Supervised Pre-Training for Genome-Wide
Association Study [48.75445626157713]
SNP2Vecは、SNPを理解するためのスケーラブルな自己教師付き事前学習手法である。
本研究では,SNP2Vecを用いて時系列ゲノミクスモデリングを行う。
中国コホートにおけるアルツハイマー病のリスク予測におけるアプローチの有効性について検討した。
論文 参考訳(メタデータ) (2022-04-14T01:53:58Z) - Generative Adversarial Method Based on Neural Tangent Kernels [13.664682865991255]
GA-NTK(Generative Adversarial NTK)と呼ばれる新しい生成アルゴリズムを提案する。
GA-NTK は GAN に匹敵する画像を生成することができるが、様々な条件下での訓練がずっと容易である。
その結果,GA-NTK は GAN に匹敵する画像を生成することができるが,様々な条件下での訓練がより容易であることがわかった。
論文 参考訳(メタデータ) (2022-04-08T14:17:46Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - EBM-Fold: Fully-Differentiable Protein Folding Powered by Energy-based
Models [53.17320541056843]
本研究では,データ駆動型生成ネットワークを用いたタンパク質構造最適化手法を提案する。
EBM-Foldアプローチは,従来のロゼッタ構造最適化ルーチンと比較して,高品質なデコイを効率よく生成できる。
論文 参考訳(メタデータ) (2021-05-11T03:40:29Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。