論文の概要: scRDiT: Generating single-cell RNA-seq data by diffusion transformers and accelerating sampling
- arxiv url: http://arxiv.org/abs/2404.06153v1
- Date: Tue, 9 Apr 2024 09:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 15:19:37.088421
- Title: scRDiT: Generating single-cell RNA-seq data by diffusion transformers and accelerating sampling
- Title(参考訳): scRDiT:拡散トランスフォーマによる単一細胞RNA-seqデータの生成とサンプリングの高速化
- Authors: Shengze Dong, Zhuorui Cui, Ding Liu, Jinzhi Lei,
- Abstract要約: シングルセルRNAシークエンシング(英: Single-cell RNA Sequencing、scRNA-seq)は、生物研究で広く利用されている基盤技術である。
本研究は、scRDiT(scRNA-seq Diffusion Transformer)と呼ばれる生成的アプローチを紹介する。
この方法は、実際のデータセットを活用して、仮想scRNA-seqデータを生成する。
- 参考スコア(独自算出の注目度): 9.013834280011293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivation: Single-cell RNA sequencing (scRNA-seq) is a groundbreaking technology extensively utilized in biological research, facilitating the examination of gene expression at the individual cell level within a given tissue sample. While numerous tools have been developed for scRNA-seq data analysis, the challenge persists in capturing the distinct features of such data and replicating virtual datasets that share analogous statistical properties. Results: Our study introduces a generative approach termed scRNA-seq Diffusion Transformer (scRDiT). This method generates virtual scRNA-seq data by leveraging a real dataset. The method is a neural network constructed based on Denoising Diffusion Probabilistic Models (DDPMs) and Diffusion Transformers (DiTs). This involves subjecting Gaussian noises to the real dataset through iterative noise-adding steps and ultimately restoring the noises to form scRNA-seq samples. This scheme allows us to learn data features from actual scRNA-seq samples during model training. Our experiments, conducted on two distinct scRNA-seq datasets, demonstrate superior performance. Additionally, the model sampling process is expedited by incorporating Denoising Diffusion Implicit Models (DDIM). scRDiT presents a unified methodology empowering users to train neural network models with their unique scRNA-seq datasets, enabling the generation of numerous high-quality scRNA-seq samples. Availability and implementation: https://github.com/DongShengze/scRDiT
- Abstract(参考訳): モチベーション: 単細胞RNAシークエンシング(scRNA-seq)は、生物学的研究で広く利用されている基盤技術であり、特定の組織サンプル内の個々の細胞レベルでの遺伝子発現の検査を容易にする。
scRNA-seqデータ分析のための多くのツールが開発されているが、これらのデータの異なる特徴をキャプチャし、類似の統計特性を共有する仮想データセットを複製するという課題は続いている。
結果: 本研究は, scRNA-seq Diffusion Transformer (scRDiT) と呼ばれる生成的アプローチを導入する。
この方法は、実際のデータセットを活用して、仮想scRNA-seqデータを生成する。
DDPM(Denoising Diffusion Probabilistic Models)とDiT(Diffusion Transformers)に基づいて構築されたニューラルネットワークである。
これは、反復的なノイズ付加ステップを通じてガウスノイズを実際のデータセットに印加し、最終的にノイズを復元し、scRNA-seqサンプルを形成する。
この手法により,モデルトレーニング中に実際の scRNA-seq サンプルからデータ特徴を学習することができる。
2つの異なるscRNA-seqデータセットを用いて実験を行い、優れた性能を示した。
さらに, DDIM(Denoising Diffusion Implicit Models)を組み込むことにより, モデルサンプリングを高速化する。
scRDiTは、ユーザが独自のscRNA-seqデータセットでニューラルネットワークモデルをトレーニングすることを可能にする統一的な方法論を提供し、多数の高品質のscRNA-seqサンプルを生成する。
可用性と実装:https://github.com/DongShengze/scRDiT
関連論文リスト
- White-Box Diffusion Transformer for single-cell RNA-seq generation [9.846966401472802]
そこで我々はDiffusion ModelとWhite-Box Transformerに基づくハイブリッドモデルを提案する。
我々のWhite-Box Diffusion Transformerは、Diffusionモデルの生成能力とWhite-Box Transformerの数学的解釈性を組み合わせる。
論文 参考訳(メタデータ) (2024-11-11T08:24:59Z) - Latent Diffusion Models for Controllable RNA Sequence Generation [33.38594748558547]
RNAはDNAとタンパク質の間の重要な中間体であり、高い配列の多様性と複雑な3次元構造を示す。
可変長の離散RNA配列の生成と最適化のための潜時拡散モデルを開発した。
実験の結果、RNA拡散は様々な生物学的指標の自然な分布と一致した非コードRNAを生成することが確認された。
論文 参考訳(メタデータ) (2024-09-15T19:04:50Z) - scDiffusion: conditional generation of high-quality single-cell data
using diffusion model [1.0738561302102216]
単細胞RNAシークエンシング(scRNA-seq)データは、単細胞レベルでの生命の法則を研究する上で重要である。
十分な高品質の scRNA-seq データを取得することは依然として困難である。
拡散モデルと基礎モデルを組み合わせた生成モデルである scDiffusion を開発し,高品質な scRNA-seq データを生成する。
論文 参考訳(メタデータ) (2024-01-08T15:44:39Z) - scHyena: Foundation Model for Full-Length Single-Cell RNA-Seq Analysis
in Brain [46.39828178736219]
我々はこれらの課題に対処し、脳内のscRNA-seq解析の精度を高めるために設計された基礎モデルであるscHyenaを紹介する。
scHyenaは、線形適応層、遺伝子埋め込みによる位置エンコーディング、および双方向ハイエナ演算子を備えている。
これにより、生データから情報を失うことなく、全長の scRNA-seq データを処理できる。
論文 参考訳(メタデータ) (2023-10-04T10:30:08Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Application of Deep Learning on Single-Cell RNA-sequencing Data
Analysis: A Review [17.976898403296275]
単細胞RNAシークエンシング(scRNA-seq)は、数千の単細胞の遺伝子発現プロファイルを同時に定量するために日常的に使用される技術となっている。
人工知能の最近の進歩であるディープラーニングも、scRNA-seqデータ分析のための有望なツールとして登場した。
論文 参考訳(メタデータ) (2022-10-11T17:07:22Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Deep Transformer Networks for Time Series Classification: The NPP Safety
Case [59.20947681019466]
時間依存nppシミュレーションデータをモデル化するために、教師付き学習方法でトランスフォーマと呼ばれる高度なテンポラルニューラルネットワークを使用する。
トランスはシーケンシャルデータの特性を学習し、テストデータセット上で約99%の分類精度で有望な性能が得られる。
論文 参考訳(メタデータ) (2021-04-09T14:26:25Z) - Generating diverse and natural text-to-speech samples using a quantized
fine-grained VAE and auto-regressive prosody prior [53.69310441063162]
本稿では,より自然な音響サンプルを生成できる離散潜在空間における逐次前処理を提案する。
本研究では,聴取試験,自動音声認識(ASR)性能の客観的指標,韻律特性の測定によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2020-02-06T12:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。