論文の概要: Chaining thoughts and LLMs to learn DNA structural biophysics
- arxiv url: http://arxiv.org/abs/2403.01332v1
- Date: Sat, 2 Mar 2024 22:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:07:52.348846
- Title: Chaining thoughts and LLMs to learn DNA structural biophysics
- Title(参考訳): DNA構造生理学を学ぶための連鎖思考とLLM
- Authors: Tyler D. Ross, Ashwin Gopinath
- Abstract要約: 汎用的な大規模言語モデルであるchatGPT 3.5-turboは、DNAの構造的生理学を学ぶために微調整できることを示す。
チェーン・オブ・シンクの応答を返すための微調整モデルとサブタスク用に微調整されたモデルの両方が、DNA配列とその構造を解析・設計する能力を持つことがわかった。
- 参考スコア(独自算出の注目度): 6.164223149261533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The future development of an AI scientist, a tool that is capable of
integrating a variety of experimental data and generating testable hypotheses,
holds immense potential. So far, bespoke machine learning models have been
created to specialize in singular scientific tasks, but otherwise lack the
flexibility of a general purpose model. Here, we show that a general purpose
large language model, chatGPT 3.5-turbo, can be fine-tuned to learn the
structural biophysics of DNA. We find that both fine-tuning models to return
chain-of-thought responses and chaining together models fine-tuned for subtasks
have an enhanced ability to analyze and design DNA sequences and their
structures.
- Abstract(参考訳): さまざまな実験データを統合し、テスト可能な仮説を生成することができるai科学者の将来の開発は、大きな可能性を秘めている。
これまでのところ、特異な科学的タスクに特化した機械学習モデルが作られてきたが、それ以外は汎用モデルの柔軟性が欠落している。
ここでは,汎用大規模言語モデルであるchatgpt 3.5-turboを用いて,dnaの構造生理学を学ぶことができることを示す。
サブタスク用に微調整されたモデルが結合することで、dna配列とその構造を解析および設計する能力が強化されることがわかりました。
関連論文リスト
- In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - xTrimoPGLM: Unified 100B-Scale Pre-trained Transformer for Deciphering
the Language of Protein [76.18058946124111]
本稿では,タンパク質の理解と生成を同時に行うために,統一されたタンパク質言語モデル xTrimoPGLM を提案する。
xTrimoPGLMは、4つのカテゴリにわたる18のタンパク質理解ベンチマークにおいて、他の高度なベースラインを著しく上回っている。
また、自然の原理に従ってデノボタンパク質配列を生成でき、微調整を監督した後にプログラム可能な生成を行うことができる。
論文 参考訳(メタデータ) (2024-01-11T15:03:17Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Generative Pretrained Autoregressive Transformer Graph Neural Network
applied to the Analysis and Discovery of Novel Proteins [0.0]
本稿では,タンパク質モデリングにおける複雑な前方および逆問題を解決するために,フレキシブル言語モデルに基づくディープラーニング戦略を適用した。
本モデルを用いて, 二次構造含量(残量レベル, 全体含量), タンパク質溶解度, シークエンシングタスクの予測を行った。
追加タスクを追加することで、モデルが全体的なパフォーマンスを改善するために活用する創発的なシナジーが得られることが分かりました。
論文 参考訳(メタデータ) (2023-05-07T12:30:24Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Probabilistic Generative Transformer Language models for Generative
Design of Molecules [10.412989388092084]
Generative Molecular Transformer (GMTransformer) は、分子の生成設計のための確率論的ニューラルネットワークモデルである。
本モデルはもともとテキスト処理のために開発された空白充填言語モデルに基づいて構築されている。
我々のモデルは、他のベースラインと比較して、高い斬新さと難解さを達成します。
論文 参考訳(メタデータ) (2022-09-20T01:51:57Z) - Modeling Protein Using Large-scale Pretrain Language Model [12.568452480689578]
学際的な研究者は、大規模な生物学的データセットをモデル化するためにディープラーニング手法を活用し始めている。
自然言語とタンパク質配列の類似性から着想を得て,進化的タンパク質配列をモデル化するために大規模言語モデルを用いた。
本モデルでは,進化規模個別配列の事前学習から進化情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2021-08-17T04:13:11Z) - Molecular modeling with machine-learned universal potential functions [15.138489177130511]
ニューラルネットワークは、エネルギーポテンシャル関数のための普遍近似器の訓練に利用できることを示す。
大規模結晶構造において,滑らかで微分可能で予測可能なポテンシャル関数を訓練することができた。
論文 参考訳(メタデータ) (2021-03-06T17:36:39Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Hierarchical, rotation-equivariant neural networks to select structural
models of protein complexes [6.092214762701847]
タンパク質複合体の正確なモデルを特定するために,全ての原子の3次元位置から直接学習する機械学習手法を提案する。
我々のネットワークは、考えられるモデルの大きな集合のうち、正確な構造モデルの同定を大幅に改善する。
論文 参考訳(メタデータ) (2020-06-05T20:17:12Z) - DeepRetinotopy: Predicting the Functional Organization of Human Visual
Cortex from Structural MRI Data using Geometric Deep Learning [125.99533416395765]
我々は,脳機能と解剖学の複雑な関係を構造的および機能的MRIデータから学習するために,大脳皮質の構造を活用できるディープラーニングモデルを開発した。
我々のモデルは解剖学的特性だけで人間の視覚野の機能的構造を予測することができ、また個人間でのニュアンスの変化を予測することができた。
論文 参考訳(メタデータ) (2020-05-26T04:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。