論文の概要: CellTypeAgent: Trustworthy cell type annotation with Large Language Models
- arxiv url: http://arxiv.org/abs/2505.08844v1
- Date: Tue, 13 May 2025 14:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.255997
- Title: CellTypeAgent: Trustworthy cell type annotation with Large Language Models
- Title(参考訳): CellTypeAgent:大規模言語モデルによる信頼できる細胞型アノテーション
- Authors: Jiawen Chen, Jianghao Zhang, Huaxiu Yao, Yun Li,
- Abstract要約: 本稿では,LLMと関連するデータベースの検証を統合した,信頼性の高い大規模言語モデル (LLM) エージェントであるCellTypeAgentを提案する。
我々はCellTypeAgentを36の組織から303の細胞タイプを含む9つの実際のデータセットで評価した。
- 参考スコア(独自算出の注目度): 21.976870680376358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cell type annotation is a critical yet laborious step in single-cell RNA sequencing analysis. We present a trustworthy large language model (LLM)-agent, CellTypeAgent, which integrates LLMs with verification from relevant databases. CellTypeAgent achieves higher accuracy than existing methods while mitigating hallucinations. We evaluated CellTypeAgent across nine real datasets involving 303 cell types from 36 tissues. This combined approach holds promise for more efficient and reliable cell type annotation.
- Abstract(参考訳): 細胞型アノテーションは単細胞RNAシークエンシング解析における重要なステップである。
本稿では,LLMと関連するデータベースの検証を統合した,信頼性の高い大規模言語モデル (LLM) エージェントであるCellTypeAgentを提案する。
CellTypeAgentは幻覚を緩和しながら既存の方法よりも高い精度を達成する。
我々はCellTypeAgentを36の組織から303の細胞タイプを含む9つの実際のデータセットで評価した。
この組み合わせアプローチは、より効率的で信頼性の高いセル型アノテーションを約束する。
関連論文リスト
- CellVerse: Do Large Language Models Really Understand Cell Biology? [74.34984441715517]
我々は,4種類のシングルセルマルチオミクスデータを統合する統一言語中心の質問応答ベンチマークであるCellVerseを紹介する。
我々は,CellVerse上で160Mから671Bまでの14のオープンソースおよびクローズドソースLLMの性能を体系的に評価した。
論文 参考訳(メタデータ) (2025-05-09T06:47:23Z) - scAgent: Universal Single-Cell Annotation via a LLM Agent [21.559055427500642]
scAgentは、Large Language Models (LLM)に基づく普遍的なセルアノテーションフレームワークである
scAgentは、細胞タイプを特定し、多様な組織で新しい細胞タイプを発見することができる。
160の細胞型と35の組織での実験的研究は、 scAgentの優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-07T03:03:21Z) - Single-Cell Omics Arena: A Benchmark Study for Large Language Models on Cell Type Annotation Using Single-Cell Data [13.56585855722118]
大規模言語モデル(LLM)は、テキストの膨大なコーパスを効率的に処理し、合成し、生物学的知識を自動的に抽出する能力を実証している。
本研究は、単一細胞RNAシークエンシング(scRNA-seq)データにおいて、細胞型を正確に分類し、アノテートするLLMの可能性を探るものである。
以上の結果から,LCMは微調整を必要とせずに単一セルデータの堅牢な解釈を実現できることが示された。
論文 参考訳(メタデータ) (2024-12-03T23:58:35Z) - Lower-dimensional projections of cellular expression improves cell type classification from single-cell RNA sequencing [12.66369956714212]
単細胞RNAシークエンシング(scRNA-seq)は単細胞レベルでの細胞多様性の研究を可能にする。
細胞型分類には, 統計的, 機械的, 深層学習に基づく様々な手法が提案されている。
本研究では,EnProCellと呼ばれる細胞型分類のための参照型手法を提案する。
論文 参考訳(メタデータ) (2024-10-13T19:01:38Z) - CellAgent: An LLM-driven Multi-Agent Framework for Automated Single-cell Data Analysis [35.61361183175167]
単細胞RNAシークエンシング (scRNA-seq) データ解析は生物学的研究に不可欠である。
しかし、望ましい結果を得るために様々なツールを手動で操作することは、研究者にとって労働集約的である。
本稿では,ScRNA-seqデータ解析タスクの自動処理と実行のためのLLM駆動型マルチエージェントフレームワークであるCellAgentを紹介する。
論文 参考訳(メタデータ) (2024-07-13T09:14:50Z) - scInterpreter: Training Large Language Models to Interpret scRNA-seq
Data for Cell Type Annotation [15.718901418627366]
本研究は、単一細胞RNAシークエンシングデータにおいて、細胞型を解釈し、区別する機能を備えた大規模言語モデルの訓練および適応方法に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-18T05:39:00Z) - Single-cell Multi-view Clustering via Community Detection with Unknown
Number of Clusters [64.31109141089598]
シングルセルデータに適した,革新的なマルチビュークラスタリング手法である scUNC を導入する。
scUNCは、事前に定義された数のクラスタを必要とせずに、異なるビューからの情報をシームレスに統合する。
3つの異なる単一セルデータセットを用いて,SCUNCの総合評価を行った。
論文 参考訳(メタデータ) (2023-11-28T08:34:58Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - Multi-modal Self-supervised Pre-training for Regulatory Genome Across
Cell Types [75.65676405302105]
我々は、GeneBERTと呼ばれる、多モードかつ自己管理的な方法でゲノムデータを事前学習するための、単純かつ効果的なアプローチを提案する。
我々はATAC-seqデータセットで1700万のゲノム配列でモデルを事前訓練する。
論文 参考訳(メタデータ) (2021-10-11T12:48:44Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。