論文の概要: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- arxiv url: http://arxiv.org/abs/2312.08290v1
- Date: Wed, 13 Dec 2023 17:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 14:34:25.927855
- Title: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- Title(参考訳): PhenDiff: 条件付き拡散モデルによる見えない現象の発見
- Authors: Anis Bourou, Thomas Boyer, K\'evin Daupin, V\'eronique Dubreuil,
Aur\'elie De Thonel, Val\'erie Mezger and Auguste Genovesio
- Abstract要約: PhenDiffは条件拡散モデルに基づく画像から画像への変換手法である。
PhenDiffは、生成された画像の品質と多様性において、CycleGANよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
- 参考スコア(独自算出の注目度): 0.769672852567215
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the last five years, deep generative models have gradually been adopted
for various tasks in biological research. Notably, image-to-image translation
methods showed to be effective in revealing subtle phenotypic cell variations
otherwise invisible to the human eye. Current methods to achieve this goal
mainly rely on Generative Adversarial Networks (GANs). However, these models
are known to suffer from some shortcomings such as training instability and
mode collapse. Furthermore, the lack of robustness to invert a real image into
the latent of a trained GAN prevents flexible editing of real images. In this
work, we propose PhenDiff, an image-to-image translation method based on
conditional diffusion models to identify subtle phenotypes in microscopy
images. We evaluate this approach on biological datasets against previous work
such as CycleGAN. We show that PhenDiff outperforms this baseline in terms of
quality and diversity of the generated images. We then apply this method to
display invisible phenotypic changes triggered by a rare neurodevelopmental
disorder on microscopy images of organoids. Altogether, we demonstrate that
PhenDiff is able to perform high quality biological image-to-image translation
allowing to spot subtle phenotype variations on a real image.
- Abstract(参考訳): 過去5年間で、生物研究における様々なタスクに深層生成モデルが徐々に採用されてきた。
特に、画像から画像への翻訳は、人間の目に見えない微妙な表現型細胞の変異を明らかにするのに有効であることが示されている。
この目標を達成するための現在の手法は主にGAN(Generative Adversarial Networks)に依存している。
しかし、これらのモデルはトレーニング不安定やモード崩壊といったいくつかの欠点に苦しむことが知られている。
さらに、訓練されたganの潜在性に実画像を反転させるロバスト性の欠如は、実画像のフレキシブルな編集を防止する。
本研究では,顕微鏡画像中の微妙な表現型を識別するための条件拡散モデルに基づく画像から画像への変換法phendiffを提案する。
バイオデータセットにおけるこのアプローチをcycleganのような以前の研究と対比して評価する。
PhenDiffは、生成した画像の品質と多様性において、このベースラインよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
さらに、PhenDiffは、実画像に微妙な表現型変化を見出すことができる高品質の生物学的画像-画像変換を行うことができることを示した。
関連論文リスト
- Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Feedback Efficient Online Fine-Tuning of Diffusion Models [52.170384048274364]
提案手法は, 実現可能なサンプルの多様体上で効率的に探索できる新しい強化学習手法である。
本稿では,3つの領域にまたがる実証的検証とともに,後悔の保証を提供する理論的解析を提案する。
論文 参考訳(メタデータ) (2024-02-26T07:24:32Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - ICAM: Interpretable Classification via Disentangled Representations and
Feature Attribution Mapping [3.262230127283453]
画像から画像への変換によってクラス固有のFAマップを作成するための新しいフレームワークを提案する。
我々は,認知症,老化,(模擬)病変検出の2次元および3次元脳画像データセットを用いて,本手法の有効性を検証した。
提案手法は,表現型変動の探索を支援するために潜時空間サンプリングを用いた最初の手法である。
論文 参考訳(メタデータ) (2020-06-15T11:23:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。