論文の概要: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- arxiv url: http://arxiv.org/abs/2312.08290v1
- Date: Wed, 13 Dec 2023 17:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 14:34:25.927855
- Title: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- Title(参考訳): PhenDiff: 条件付き拡散モデルによる見えない現象の発見
- Authors: Anis Bourou, Thomas Boyer, K\'evin Daupin, V\'eronique Dubreuil,
Aur\'elie De Thonel, Val\'erie Mezger and Auguste Genovesio
- Abstract要約: PhenDiffは条件拡散モデルに基づく画像から画像への変換手法である。
PhenDiffは、生成された画像の品質と多様性において、CycleGANよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
- 参考スコア(独自算出の注目度): 0.769672852567215
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the last five years, deep generative models have gradually been adopted
for various tasks in biological research. Notably, image-to-image translation
methods showed to be effective in revealing subtle phenotypic cell variations
otherwise invisible to the human eye. Current methods to achieve this goal
mainly rely on Generative Adversarial Networks (GANs). However, these models
are known to suffer from some shortcomings such as training instability and
mode collapse. Furthermore, the lack of robustness to invert a real image into
the latent of a trained GAN prevents flexible editing of real images. In this
work, we propose PhenDiff, an image-to-image translation method based on
conditional diffusion models to identify subtle phenotypes in microscopy
images. We evaluate this approach on biological datasets against previous work
such as CycleGAN. We show that PhenDiff outperforms this baseline in terms of
quality and diversity of the generated images. We then apply this method to
display invisible phenotypic changes triggered by a rare neurodevelopmental
disorder on microscopy images of organoids. Altogether, we demonstrate that
PhenDiff is able to perform high quality biological image-to-image translation
allowing to spot subtle phenotype variations on a real image.
- Abstract(参考訳): 過去5年間で、生物研究における様々なタスクに深層生成モデルが徐々に採用されてきた。
特に、画像から画像への翻訳は、人間の目に見えない微妙な表現型細胞の変異を明らかにするのに有効であることが示されている。
この目標を達成するための現在の手法は主にGAN(Generative Adversarial Networks)に依存している。
しかし、これらのモデルはトレーニング不安定やモード崩壊といったいくつかの欠点に苦しむことが知られている。
さらに、訓練されたganの潜在性に実画像を反転させるロバスト性の欠如は、実画像のフレキシブルな編集を防止する。
本研究では,顕微鏡画像中の微妙な表現型を識別するための条件拡散モデルに基づく画像から画像への変換法phendiffを提案する。
バイオデータセットにおけるこのアプローチをcycleganのような以前の研究と対比して評価する。
PhenDiffは、生成した画像の品質と多様性において、このベースラインよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
さらに、PhenDiffは、実画像に微妙な表現型変化を見出すことができる高品質の生物学的画像-画像変換を行うことができることを示した。
関連論文リスト
- Revealing Subtle Phenotypes in Small Microscopy Datasets Using Latent Diffusion Models [0.815557531820863]
本稿では,事前学習した潜伏拡散モデルを用いて,微妙な表現型変化を明らかにする手法を提案する。
本研究は, 視覚的特徴と知覚的差異の両方を捉えることで, 表現型変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2025-02-12T15:45:19Z) - DiffEx: Explaining a Classifier with Diffusion Models to Identify Microscopic Cellular Variations [0.815557531820863]
識別的なディープラーニングモデルは、イメージをカテゴリに分類することに長けている。
これらのモデルは、その複雑さと解釈可能性の欠如により、しばしばブラックボックスと見なされる。
視覚的に解釈可能な属性を生成して分類器を説明するDiffExを提案する。
論文 参考訳(メタデータ) (2025-02-12T12:46:58Z) - G2PDiffusion: Genotype-to-Phenotype Prediction with Diffusion Models [108.94237816552024]
本稿では,G2PDiffusionについて紹介する。G2PDiffusionは,複数の種にまたがる遺伝子型からフェノタイプへの拡散モデルである。
我々は,形態的表現型を種間で表現するために画像を使用し,条件付き画像生成として表現型予測を再定義する。
論文 参考訳(メタデータ) (2025-02-07T06:16:31Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
そして、学習したアーティファクト検出器を第2段階に巻き込み、各画像に画素ごとの信頼マップを割り当てて拡散モデルをチューニングする。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。