論文の概要: PhenDiff: Revealing Subtle Phenotypes with Diffusion Models in Real Images
- arxiv url: http://arxiv.org/abs/2312.08290v2
- Date: Wed, 10 Jul 2024 16:04:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-11 21:59:38.400224
- Title: PhenDiff: Revealing Subtle Phenotypes with Diffusion Models in Real Images
- Title(参考訳): PhenDiff: 実画像における拡散モデルによるサブトル現象の解明
- Authors: Anis Bourou, Thomas Boyer, Kévin Daupin, Véronique Dubreuil, Aurélie De Thonel, Valérie Mezger, Auguste Genovesio,
- Abstract要約: PhenDiffは、実際の画像をある状態から別の状態に翻訳することで、細胞性表現型の変化を特定する。
薬物治療の低濃度の場合など,表現型の変化が見えない場合や見えない場合において,この手法を質的,定量的に検証する。
- 参考スコア(独自算出の注目度): 0.7329200485567825
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For the past few years, deep generative models have increasingly been used in biological research for a variety of tasks. Recently, they have proven to be valuable for uncovering subtle cell phenotypic differences that are not directly discernible to the human eye. However, current methods employed to achieve this goal mainly rely on Generative Adversarial Networks (GANs). While effective, GANs encompass issues such as training instability and mode collapse, and they do not accurately map images back to the model's latent space, which is necessary to synthesize, manipulate, and thus interpret outputs based on real images. In this work, we introduce PhenDiff: a multi-class conditional method leveraging Diffusion Models (DMs) designed to identify shifts in cellular phenotypes by translating a real image from one condition to another. We qualitatively and quantitatively validate this method on cases where the phenotypic changes are visible or invisible, such as in low concentrations of drug treatments. Overall, PhenDiff represents a valuable tool for identifying cellular variations in real microscopy images. We anticipate that it could facilitate the understanding of diseases and advance drug discovery through the identification of novel biomarkers.
- Abstract(参考訳): 過去数年間、様々なタスクの生物学的研究において、深層生成モデルがますます使われてきた。
近年、ヒトの目に直接識別できない微妙な細胞形質の違いを明らかにするのに有用であることが証明されている。
しかし、現在の手法は主にGAN(Generative Adversarial Networks)に依存している。
有効ではあるが、GANはトレーニング不安定性やモード崩壊などの問題を含み、実際の画像に基づいて出力を合成、操作、解釈するために必要とされるモデルの潜在空間に正確にイメージをマッピングしない。
本研究では,ある条件から別の条件への実際の画像の変換により,細胞性表現型の変化を特定するために設計された拡散モデル(DM)を利用した多クラス条件法であるPhenDiffを紹介する。
薬物治療の低濃度の場合など,表現型の変化が見えない場合や見えない場合において,この手法を質的,定量的に検証する。
全体としてPhenDiffは、実際の顕微鏡画像の細胞の変化を識別する貴重なツールだ。
我々は,新たなバイオマーカーの同定を通じて,疾患の理解と薬物発見の促進を期待する。
関連論文リスト
- Revealing Subtle Phenotypes in Small Microscopy Datasets Using Latent Diffusion Models [0.815557531820863]
本稿では,事前学習した潜伏拡散モデルを用いて,微妙な表現型変化を明らかにする手法を提案する。
本研究は, 視覚的特徴と知覚的差異の両方を捉えることで, 表現型変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2025-02-12T15:45:19Z) - DiffEx: Explaining a Classifier with Diffusion Models to Identify Microscopic Cellular Variations [0.815557531820863]
識別的なディープラーニングモデルは、イメージをカテゴリに分類することに長けている。
これらのモデルは、その複雑さと解釈可能性の欠如により、しばしばブラックボックスと見なされる。
視覚的に解釈可能な属性を生成して分類器を説明するDiffExを提案する。
論文 参考訳(メタデータ) (2025-02-12T12:46:58Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Feedback Efficient Online Fine-Tuning of Diffusion Models [52.170384048274364]
提案手法は, 実現可能なサンプルの多様体上で効率的に探索できる新しい強化学習手法である。
本稿では,3つの領域にまたがる実証的検証とともに,後悔の保証を提供する理論的解析を提案する。
論文 参考訳(メタデータ) (2024-02-26T07:24:32Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - ICAM: Interpretable Classification via Disentangled Representations and
Feature Attribution Mapping [3.262230127283453]
画像から画像への変換によってクラス固有のFAマップを作成するための新しいフレームワークを提案する。
我々は,認知症,老化,(模擬)病変検出の2次元および3次元脳画像データセットを用いて,本手法の有効性を検証した。
提案手法は,表現型変動の探索を支援するために潜時空間サンプリングを用いた最初の手法である。
論文 参考訳(メタデータ) (2020-06-15T11:23:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。