論文の概要: EmbryoDiff: A Conditional Diffusion Framework with Multi-Focal Feature Fusion for Fine-Grained Embryo Developmental Stage Recognition
- arxiv url: http://arxiv.org/abs/2511.11027v1
- Date: Fri, 14 Nov 2025 07:27:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.47532
- Title: EmbryoDiff: A Conditional Diffusion Framework with Multi-Focal Feature Fusion for Fine-Grained Embryo Developmental Stage Recognition
- Title(参考訳): EmbryoDiff:細粒化胚発生段階認識のための多機能融合を用いた条件拡散フレームワーク
- Authors: Yong Sun, Zhengjie Zhang, Junyu Shi, Zhiyuan Zhang, Lijiang Liu, Qiang Nie,
- Abstract要約: EmbryoDiffは、2段階の拡散に基づくフレームワークで、条件付きシーケンス記述プロセスとしてタスクを定式化する。
具体的には、まずフレームレベルのエンコーダをトレーニングし、凍結し、堅牢な多焦点特徴を抽出する。
第2段階では、焦点面にまたがる情報を集約して3次元形態素表現を構築するマルチフォーカス特徴融合戦略を導入する。
- 参考スコア(独自算出の注目度): 13.116879483239659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identification of fine-grained embryo developmental stages during In Vitro Fertilization (IVF) is crucial for assessing embryo viability. Although recent deep learning methods have achieved promising accuracy, existing discriminative models fail to utilize the distributional prior of embryonic development to improve accuracy. Moreover, their reliance on single-focal information leads to incomplete embryonic representations, making them susceptible to feature ambiguity under cell occlusions. To address these limitations, we propose EmbryoDiff, a two-stage diffusion-based framework that formulates the task as a conditional sequence denoising process. Specifically, we first train and freeze a frame-level encoder to extract robust multi-focal features. In the second stage, we introduce a Multi-Focal Feature Fusion Strategy that aggregates information across focal planes to construct a 3D-aware morphological representation, effectively alleviating ambiguities arising from cell occlusions. Building on this fused representation, we derive complementary semantic and boundary cues and design a Hybrid Semantic-Boundary Condition Block to inject them into the diffusion-based denoising process, enabling accurate embryonic stage classification. Extensive experiments on two benchmark datasets show that our method achieves state-of-the-art results. Notably, with only a single denoising step, our model obtains the best average test performance, reaching 82.8% and 81.3% accuracy on the two datasets, respectively.
- Abstract(参考訳): In Vitro Fertilization(IVF)中の微細な胚発生段階の同定は、胚の生存性を評価するために重要である。
最近の深層学習法は有望な精度を達成したが、既存の識別モデルは、胚発生前の分布モデルを利用して精度を向上させることができない。
さらに、その単一焦点情報への依存は、不完全な胚の表現をもたらし、細胞閉塞下での曖昧さを許容する。
これらの制約に対処するために,条件付きシーケンス記述プロセスとしてタスクを定式化する2段階拡散に基づくフレームワークであるEmbryoDiffを提案する。
具体的には、まずフレームレベルのエンコーダをトレーニングし、凍結し、堅牢な多焦点特徴を抽出する。
第2段階では、焦点面にまたがる情報を集約して3次元形態表現を構築するマルチフォーカス特徴融合戦略を導入し、細胞介在物から生じる曖昧さを効果的に緩和する。
この融合表現に基づいて, 相補的意味と境界条件を導出し, 混合意味境界条件ブロック(Hybrid Semantic-Boundary Condition Block)を設計し, 拡散に基づく認知過程に注入し, 正確な胚期分類を可能にする。
2つのベンチマークデータセットの大規模な実験により,本手法は最先端の結果が得られることが示された。
特に、たった1ステップで、我々のモデルは最高の平均テスト性能を獲得し、2つのデータセットでそれぞれ82.8%と81.3%の精度に達した。
関連論文リスト
- Subtyping Breast Lesions via Generative Augmentation based Long-tailed Recognition in Ultrasound [8.410718166932798]
本稿では,高忠実度データ合成による分布バイアスを緩和する長鎖分類のためのフレームワークを提案する。
提案手法は,最先端手法と比較して有望な性能を実現する。
論文 参考訳(メタデータ) (2025-07-30T10:50:41Z) - DCEvo: Discriminative Cross-Dimensional Evolutionary Learning for Infrared and Visible Image Fusion [58.36400052566673]
赤外線および可視画像融合は、異なるスペクトルバンドからの情報を統合して画質を向上させる。
既存のアプローチでは、画像融合とそれに続くハイレベルなタスクを別プロセスとして扱う。
本稿では、視覚的品質と知覚精度を同時に向上させるDCEvoと呼ばれる識別的クロス次元進化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-22T07:01:58Z) - Guided Neural Schrödinger bridge for Brain MR image synthesis with Limited Data [3.150689113642665]
マルチモーダル脳MRIは臨床診断に不可欠な補完情報を提供する。
これを解決するために、利用可能なモダリティから欠落するモダリティを生成する様々な方法が提案されている。
本稿では,これらの制限を克服するための新しいフレームワークであるFully Guided Schr"odinger Bridge (FGSB)を提案する。
論文 参考訳(メタデータ) (2025-01-24T01:40:16Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - E2ED^2:Direct Mapping from Noise to Data for Enhanced Diffusion Models [15.270657838960114]
拡散モデルは、視覚的生成モデリングにおけるデファクト・プライマリ・パラダイムとして確立されてきた。
最終生成サンプルから初期雑音への直接最適化を実現する新しいエンドツーエンド学習パラダイムを提案する。
Fr'eche't Inception Distance (FID) と CLIP のスコアは,サンプリングステップが少なくても大幅に向上する。
論文 参考訳(メタデータ) (2024-12-30T16:06:31Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - Multimodal Outer Arithmetic Block Dual Fusion of Whole Slide Images and Omics Data for Precision Oncology [6.418265127069878]
本稿では, 局所(パッチレベル)から大域(スライダーレベル)の相互作用の相補的な情報を取得するために, 早期・後期融合におけるオミック埋め込みの利用を提案する。
この二重融合戦略は、解釈可能性と分類性能を高め、臨床診断の可能性を強調している。
論文 参考訳(メタデータ) (2024-11-26T13:25:53Z) - Inversion Circle Interpolation: Diffusion-based Image Augmentation for Data-scarce Classification [6.442738337380714]
拡散に基づくDA法は,高品質なサンプルを生成する上で重要な2つの鍵である忠実さと多様性の両方を考慮できない。
拡散に基づく新しいDA法Diff-IIを提案する。
論文 参考訳(メタデータ) (2024-08-29T05:05:02Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。