論文の概要: Large Language Models Meet Virtual Cell: A Survey
- arxiv url: http://arxiv.org/abs/2510.07706v1
- Date: Thu, 09 Oct 2025 02:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.818896
- Title: Large Language Models Meet Virtual Cell: A Survey
- Title(参考訳): 大規模言語モデルと仮想細胞: 調査
- Authors: Krinos Li, Xianglu Xiao, Shenglong Deng, Lucas He, Zijun Zhong, Yuanjie Zou, Zhonghao Zhan, Zheng Hui, Weiye Bao, Guang Yang,
- Abstract要約: 大型言語モデル(LLM)は「仮想細胞」の開発を可能にすることによって細胞生物学を変革している
この研究は、仮想セルモデリングのためのLLMの包括的なレビューを提供する。
- 参考スコア(独自算出の注目度): 5.3507304878218145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are transforming cellular biology by enabling the development of "virtual cells"--computational systems that represent, predict, and reason about cellular states and behaviors. This work provides a comprehensive review of LLMs for virtual cell modeling. We propose a unified taxonomy that organizes existing methods into two paradigms: LLMs as Oracles, for direct cellular modeling, and LLMs as Agents, for orchestrating complex scientific tasks. We identify three core tasks--cellular representation, perturbation prediction, and gene regulation inference--and review their associated models, datasets, evaluation benchmarks, as well as the critical challenges in scalability, generalizability, and interpretability.
- Abstract(参考訳): 大規模言語モデル(LLM)は、「仮想細胞」-細胞状態と振る舞いを表現、予測、推論する計算システムの開発を可能にすることで、細胞生物学を変革している。この研究は、仮想セルモデリングのためのLLMを包括的にレビューする。我々は、既存のメソッドを2つのパラダイムにまとめる統一分類法を提案する。それは、Oracleとして、直接セルモデリングのために、そしてエージェントとして、そして複雑な科学的タスクを編成するために、LSMを2つにまとめる。我々は、細胞表現、摂動予測、遺伝子制御推論の3つのコアタスクを識別する。関連するモデル、データセット、評価ベンチマークに加えて、スケーラビリティ、一般化可能性、解釈性において重要な課題をレビューする。
関連論文リスト
- CellForge: Agentic Design of Virtual Cell Models [24.938939602572702]
本稿では,提示された生物データセットを仮想セルの最適化された計算モデルに変換するエージェントシステムであるCellForgeを紹介する。
このフレームワークは、タスク分析、メソッド設計、実験実行の3つのコアモジュールを統合している。
単一セル摂動予測におけるCellForgeの機能を示す。
論文 参考訳(メタデータ) (2025-08-04T10:43:31Z) - CellVerse: Do Large Language Models Really Understand Cell Biology? [74.34984441715517]
我々は,4種類のシングルセルマルチオミクスデータを統合する統一言語中心の質問応答ベンチマークであるCellVerseを紹介する。
我々は,CellVerse上で160Mから671Bまでの14のオープンソースおよびクローズドソースLLMの性能を体系的に評価した。
論文 参考訳(メタデータ) (2025-05-09T06:47:23Z) - Enhancing Cell Counting through MLOps: A Structured Approach for Automated Cell Analysis [5.615229139948217]
本稿では,Cell Counting Machine Learning Operations (CC-MLOps)を紹介する。
実践的なユースケースを通じて、MLOps原則が信頼性を高め、ヒューマンエラーを低減し、スケーラブルなCell Countingソリューションを実現する方法を実証する。
論文 参考訳(メタデータ) (2025-04-28T13:53:50Z) - scReader: Prompting Large Language Models to Interpret scRNA-seq Data [12.767105992391555]
本稿では,大規模言語モデルの一般的な知識機能と,単一セルオミクスデータ解釈のためのドメイン固有表現モデルを統合する,革新的なハイブリッドアプローチを提案する。
単細胞遺伝子レベルでの遺伝子発現データをプロンプトで入力することにより、様々な種および細胞タイプにわたる遺伝子発現の差分レベルに基づいて、細胞表現を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-12-24T04:28:42Z) - How to Build the Virtual Cell with Artificial Intelligence: Priorities and Opportunities [46.671834972945874]
仮想セル構築にAIの進歩を活用するというビジョンを提案する。
我々は、生物の普遍的な表現を含む、そのようなAI仮想セルの望ましい能力について議論する。
我々は、AI仮想細胞が新しい薬物標的を特定し、摂動に対する細胞反応を予測し、スケール仮説を探索する未来を想像する。
論文 参考訳(メタデータ) (2024-09-18T02:41:50Z) - Transformer-based Single-Cell Language Model: A Survey [5.228439173541588]
変換器の構造と原理について詳述する。
本稿では,単一セルデータ解析のための単一セル言語モデルと大規模言語モデルについて概説する。
単一セル言語モデルの課題を論じ,将来性のある研究方向性を提供する。
論文 参考訳(メタデータ) (2024-07-18T06:43:12Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - Causal machine learning for single-cell genomics [94.28105176231739]
単細胞ゲノミクスへの機械学習技術の応用とその課題について論じる。
まず, 単一細胞生物学における現在の因果的アプローチの基盤となるモデルについて述べる。
次に、単一セルデータへの因果的アプローチの適用におけるオープンな問題を特定する。
論文 参考訳(メタデータ) (2023-10-23T13:35:24Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。