論文の概要: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- arxiv url: http://arxiv.org/abs/2312.08290v1
- Date: Wed, 13 Dec 2023 17:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 14:34:25.927855
- Title: PhenDiff: Revealing Invisible Phenotypes with Conditional Diffusion
Models
- Title(参考訳): PhenDiff: 条件付き拡散モデルによる見えない現象の発見
- Authors: Anis Bourou, Thomas Boyer, K\'evin Daupin, V\'eronique Dubreuil,
Aur\'elie De Thonel, Val\'erie Mezger and Auguste Genovesio
- Abstract要約: PhenDiffは条件拡散モデルに基づく画像から画像への変換手法である。
PhenDiffは、生成された画像の品質と多様性において、CycleGANよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
- 参考スコア(独自算出の注目度): 0.769672852567215
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the last five years, deep generative models have gradually been adopted
for various tasks in biological research. Notably, image-to-image translation
methods showed to be effective in revealing subtle phenotypic cell variations
otherwise invisible to the human eye. Current methods to achieve this goal
mainly rely on Generative Adversarial Networks (GANs). However, these models
are known to suffer from some shortcomings such as training instability and
mode collapse. Furthermore, the lack of robustness to invert a real image into
the latent of a trained GAN prevents flexible editing of real images. In this
work, we propose PhenDiff, an image-to-image translation method based on
conditional diffusion models to identify subtle phenotypes in microscopy
images. We evaluate this approach on biological datasets against previous work
such as CycleGAN. We show that PhenDiff outperforms this baseline in terms of
quality and diversity of the generated images. We then apply this method to
display invisible phenotypic changes triggered by a rare neurodevelopmental
disorder on microscopy images of organoids. Altogether, we demonstrate that
PhenDiff is able to perform high quality biological image-to-image translation
allowing to spot subtle phenotype variations on a real image.
- Abstract(参考訳): 過去5年間で、生物研究における様々なタスクに深層生成モデルが徐々に採用されてきた。
特に、画像から画像への翻訳は、人間の目に見えない微妙な表現型細胞の変異を明らかにするのに有効であることが示されている。
この目標を達成するための現在の手法は主にGAN(Generative Adversarial Networks)に依存している。
しかし、これらのモデルはトレーニング不安定やモード崩壊といったいくつかの欠点に苦しむことが知られている。
さらに、訓練されたganの潜在性に実画像を反転させるロバスト性の欠如は、実画像のフレキシブルな編集を防止する。
本研究では,顕微鏡画像中の微妙な表現型を識別するための条件拡散モデルに基づく画像から画像への変換法phendiffを提案する。
バイオデータセットにおけるこのアプローチをcycleganのような以前の研究と対比して評価する。
PhenDiffは、生成した画像の品質と多様性において、このベースラインよりも優れていることを示す。
次に, 臓器の顕微鏡像に, 稀な神経発達障害によって引き起こされる異常な表現型変化を示すために本手法を適用した。
さらに、PhenDiffは、実画像に微妙な表現型変化を見出すことができる高品質の生物学的画像-画像変換を行うことができることを示した。
関連論文リスト
- A Phase Transition in Diffusion Models Reveals the Hierarchical Nature
of Data [55.748186000425996]
最近の進歩は、拡散モデルが高品質な画像を生成することを示している。
我々はこの現象を階層的なデータ生成モデルで研究する。
本分析は拡散モデルにおける時間とスケールの関係を特徴付ける。
論文 参考訳(メタデータ) (2024-02-26T19:52:33Z) - Fine-Tuning of Continuous-Time Diffusion Models as Entropy-Regularized
Control [54.132297393662654]
拡散モデルは、自然画像やタンパク質のような複雑なデータ分布を捉えるのに優れている。
拡散モデルはトレーニングデータセットの分布を表現するために訓練されるが、私たちはしばしば、生成された画像の美的品質など他の特性にもっと関心を持っている。
本稿では,本フレームワークが真に報酬の高い多種多様なサンプルを効率よく生成できることを示す理論的,実証的な証拠を示す。
論文 参考訳(メタデータ) (2024-02-23T08:54:42Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Generating Realistic Counterfactuals for Retinal Fundus and OCT Images
using Diffusion Models [36.81751569090276]
否定的推論は、意思決定の説明や代替案の定量化のために臨床現場でしばしば用いられる。
ここでは,網膜疾患分類タスクを訓練した逆向き頑健な分類器と併用した拡散モデルを用いることで,極めて現実的な対物生成が可能であることを実証する。
ユーザスタディにおいて、ドメインの専門家は、我々の手法を用いて生成された偽物は、以前の方法から生成された偽物よりもはるかに現実的であり、実際の画像と区別できないものさえ見出した。
論文 参考訳(メタデータ) (2023-11-20T09:28:04Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - A Survey on Training Challenges in Generative Adversarial Networks for
Biomedical Image Analysis [0.6308539010172307]
GAN(Generative Adversarial Networks)は、合成バイオメディカル画像の生成を通じて、データ制限に対処するために広く利用されている。
GANは、適切な合成画像の生成を妨げるいくつかの技術的課題を経験することができる。
本研究は, バイオメディカルイメージング領域におけるGANのトレーニング問題に対する解決策に基づく, レビューと分類について述べる。
論文 参考訳(メタデータ) (2022-01-19T15:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。