論文の概要: Adapting Video Diffusion Models for Time-Lapse Microscopy
- arxiv url: http://arxiv.org/abs/2503.18583v1
- Date: Mon, 24 Mar 2025 11:41:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:35:47.597087
- Title: Adapting Video Diffusion Models for Time-Lapse Microscopy
- Title(参考訳): 時間分解顕微鏡におけるビデオ拡散モデルの適用
- Authors: Alexander Holmberg, Nils Mechtel, Wei Ouyang,
- Abstract要約: 本稿では,HeLa細胞の細胞分裂の時間分解顕微鏡ビデオを生成するために,ビデオ拡散モデルのドメイン適応を提案する。
3つの条件付け手法を探索し、顕微鏡特異的なシーケンス上で予め訓練されたビデオ拡散モデルを微調整する。
以上の結果から, 生物可塑性合成顕微鏡データを生成するための生成ビデオモデルのドメイン特異的微調整の可能性が示された。
- 参考スコア(独自算出の注目度): 45.21395064529522
- License:
- Abstract: We present a domain adaptation of video diffusion models to generate highly realistic time-lapse microscopy videos of cell division in HeLa cells. Although state-of-the-art generative video models have advanced significantly for natural videos, they remain underexplored in microscopy domains. To address this gap, we fine-tune a pretrained video diffusion model on microscopy-specific sequences, exploring three conditioning strategies: (1) text prompts derived from numeric phenotypic measurements (e.g., proliferation rates, migration speeds, cell-death frequencies), (2) direct numeric embeddings of phenotype scores, and (3) image-conditioned generation, where an initial microscopy frame is extended into a complete video sequence. Evaluation using biologically meaningful morphological, proliferation, and migration metrics demonstrates that fine-tuning substantially improves realism and accurately captures critical cellular behaviors such as mitosis and migration. Notably, the fine-tuned model also generalizes beyond the training horizon, generating coherent cell dynamics even in extended sequences. However, precisely controlling specific phenotypic characteristics remains challenging, highlighting opportunities for future work to enhance conditioning methods. Our results demonstrate the potential for domain-specific fine-tuning of generative video models to produce biologically plausible synthetic microscopy data, supporting applications such as in-silico hypothesis testing and data augmentation.
- Abstract(参考訳): ビデオ拡散モデルの領域適応を行い,HeLa細胞における細胞分裂の超現実的なタイムラプス顕微鏡映像を生成する。
現在最先端の生成ビデオモデルは、自然ビデオでは著しく進歩しているが、顕微鏡領域では未発見のままである。
このギャップに対処するために、(1) 数値表現型測定(例えば、増殖速度、移動速度、細胞死頻度)から導かれるテキストプロンプト、(2) 表現型スコアの直接数値埋め込み、(3) 画像条件付き生成の3つの条件付け戦略を、顕微鏡特異的なシーケンス上で微調整し、初期顕微鏡フレームを完全なビデオシーケンスに拡張する。
生物学的に有意な形態、増殖、移動の指標を用いた評価は、微調整が現実性を大幅に改善し、分裂や移動のような重要な細胞の挙動を正確に捉えていることを示している。
特に、微調整モデルはトレーニング水平線を超えて一般化し、拡張シーケンスにおいてもコヒーレントなセルダイナミクスを生成する。
しかし、特定の表現型の特徴を正確に制御することは依然として困難であり、コンディショニング手法を強化するための今後の研究の機会を浮き彫りにしている。
本研究は, 生物可塑性合成顕微鏡データを作成するための生成ビデオモデルのドメイン特異的微調整の可能性を示し, シリコン内仮説テストやデータ拡張などの応用を支援する。
関連論文リスト
- Revealing Subtle Phenotypes in Small Microscopy Datasets Using Latent Diffusion Models [0.815557531820863]
本稿では,事前学習した潜伏拡散モデルを用いて,微妙な表現型変化を明らかにする手法を提案する。
本研究は, 視覚的特徴と知覚的差異の両方を捉えることで, 表現型変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2025-02-12T15:45:19Z) - Sequence models for continuous cell cycle stage prediction from brightfield images [0.0]
非蛍光光場イメージングを用いた連続的なFucci信号の予測のためのディープラーニング手法の評価を行った。
因果モデルと変圧器モデルの両方が単一フレームと固定フレームのアプローチよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T09:57:17Z) - Diffusion Models in Low-Level Vision: A Survey [82.77962165415153]
拡散モデルに基づくソリューションは、優れた品質と多様性のサンプルを作成する能力で広く称賛されている。
本稿では,3つの一般化拡散モデリングフレームワークを提案し,それらと他の深層生成モデルとの相関関係について検討する。
医療、リモートセンシング、ビデオシナリオなど、他のタスクに適用された拡張拡散モデルについて要約する。
論文 参考訳(メタデータ) (2024-06-17T01:49:27Z) - Annotated Biomedical Video Generation using Denoising Diffusion Probabilistic Models and Flow Fields [0.044688588029555915]
本稿では,現実的な合成顕微鏡ビデオを生成するバイオメディカルビデオ拡散モデル(BVDM)を提案する。
BVDMは任意の長さのビデオをピクセルレベルのアノテーションで生成することができる。
高忠実な合成細胞顕微鏡画像を生成する拡散確率モデル(DDPM)と、連続するビデオフレーム間の非剛性変換を予測するフロー予測モデル(FPM)から構成される。
論文 参考訳(メタデータ) (2024-03-26T15:45:29Z) - Diffusion Priors for Dynamic View Synthesis from Monocular Videos [59.42406064983643]
ダイナミックノベルビュー合成は、ビデオ内の視覚的コンテンツの時間的進化を捉えることを目的としている。
まず、ビデオフレーム上に予め訓練されたRGB-D拡散モデルをカスタマイズ手法を用いて微調整する。
動的および静的なニューラルレイディアンス場を含む4次元表現に、微調整されたモデルから知識を蒸留する。
論文 参考訳(メタデータ) (2024-01-10T23:26:41Z) - A Survey on Video Diffusion Models [103.03565844371711]
AI生成コンテンツ(AIGC)の最近の波は、コンピュータビジョンでかなりの成功を収めている。
その印象的な生成能力のため、拡散モデルは徐々にGANと自動回帰変換器に基づく手法に取って代わられている。
本稿では,AIGC時代の映像拡散モデルについて概観する。
論文 参考訳(メタデータ) (2023-10-16T17:59:28Z) - Fast spline detection in high density microscopy data [0.0]
多生物系の顕微鏡的研究において、衝突と重なりの問題は依然として困難である。
そこで,本研究では,一般的なモチーフと重なり合うスプラインの正確な形状軌跡を抽出する,エンドツーエンドの深層学習手法を開発した。
線虫Caenorhabditis elegansの密集実験における使用性の設定と実証を行った。
論文 参考訳(メタデータ) (2023-01-11T13:40:05Z) - Analyzing Diffusion as Serial Reproduction [12.389541192789167]
拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
論文 参考訳(メタデータ) (2022-09-29T14:35:28Z) - Diffusion Models in Vision: A Survey [73.10116197883303]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。