論文の概要: A deep language model to predict metabolic network equilibria
- arxiv url: http://arxiv.org/abs/2112.03588v1
- Date: Tue, 7 Dec 2021 09:30:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:32:12.540521
- Title: A deep language model to predict metabolic network equilibria
- Title(参考訳): メタボリックネットワーク平衡予測のための深層言語モデル
- Authors: Fran\c{c}ois Charton, Amaury Hayat, Sean T. McQuade, Nathaniel J.
Merrill, Benedetto Piccoli
- Abstract要約: ディープラーニングモデル、特にTransformerのようなアーキテクチャは、ランダムに生成されたデータセットでトレーニング可能であることを示す。
モデルをトレーニングするために使用できるランダムネットワークの大規模なセット(4000万要素)を作成します。
これらの訓練されたモデルは、99%以上のケースでランダムグラフ上のネットワーク平衡を予測することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that deep learning models, and especially architectures like the
Transformer, originally intended for natural language, can be trained on
randomly generated datasets to predict to very high accuracy both the
qualitative and quantitative features of metabolic networks. Using standard
mathematical techniques, we create large sets (40 million elements) of random
networks that can be used to train our models. These trained models can predict
network equilibrium on random graphs in more than 99% of cases. They can also
generalize to graphs with different structure than those encountered at
training. Finally, they can predict almost perfectly the equilibria of a small
set of known biological networks. Our approach is both very economical in
experimental data and uses only small and shallow deep-learning model, far from
the large architectures commonly used in machine translation. Such results pave
the way for larger use of deep learning models for problems related to
biological networks in key areas such as quantitative systems pharmacology,
systems biology, and synthetic biology.
- Abstract(参考訳): 自然言語を意図したディープラーニングモデル,特にトランスフォーマーのようなアーキテクチャをランダムに生成されたデータセット上でトレーニングすることで,メタボリックネットワークの質的および定量的特徴の両方を非常に高精度に予測できることを示す。
標準的な数学的手法を用いて、モデルをトレーニングするために使用できるランダムネットワークの大きなセット(4000万要素)を作成します。
これらの訓練されたモデルは、99%以上のケースでランダムグラフ上のネットワーク平衡を予測することができる。
また、訓練中に遭遇したグラフと異なる構造を持つグラフに一般化することもできる。
最後に、既知の生物ネットワークの小さな集合の平衡をほぼ完全に予測することができる。
私たちのアプローチは、実験データにおいて非常に経済的であり、機械翻訳で一般的に使われる大規模アーキテクチャとは程遠い、小さくて浅いディープラーニングモデルのみを使用します。
このような結果は、定量的システム薬理学、システム生物学、合成生物学といった重要な分野における、生物ネットワークに関連する問題に対するディープラーニングモデルをより多く利用するための道を開いた。
関連論文リスト
- Leveraging advances in machine learning for the robust classification and interpretation of networks [0.0]
シミュレーションアプローチでは、Erd"os-R'enyiやSmall-worldのような適切なネットワーク生成モデルを選択する。
我々は、解釈可能な機械学習の進歩を利用して、様々なネットワーク属性に基づいて、生成モデルによってシミュレーションされたネットワークを分類する。
論文 参考訳(メタデータ) (2024-03-20T00:24:23Z) - Pruning neural network models for gene regulatory dynamics using data and domain knowledge [24.670514977455202]
本稿では,モデルフィッティングにおけるドメイン固有構造情報を用いてネットワークプルーニングをガイドするフレームワークであるDASHを提案する。
DASHは、遺伝子相互作用パートナーに関する知識を用いて、一般的な刈り取り法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-03-05T23:02:55Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Predicting Biomedical Interactions with Probabilistic Model Selection
for Graph Neural Networks [5.156812030122437]
現在の生物学的ネットワークは、ノイズ、スパース、不完全であり、そのような相互作用の実験的同定には時間と費用がかかる。
ディープグラフニューラルネットワークは、グラフ構造データモデリングの有効性を示し、バイオメディカル相互作用予測において優れた性能を達成した。
提案手法により,グラフ畳み込みネットワークは,その深度を動的に適応し,対話数の増加に対応することができる。
論文 参考訳(メタデータ) (2022-11-22T20:44:28Z) - Physically constrained neural networks to solve the inverse problem for
neuron models [0.29005223064604074]
システム生物学とシステム神経生理学は、生体医学科学における多くの重要な応用のための強力なツールである。
ディープニューラルネットワークの分野における最近の進歩は、非線形で普遍的な近似を定式化する可能性を示している。
論文 参考訳(メタデータ) (2022-09-24T12:51:15Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。