論文の概要: USFetal: Tools for Fetal Brain Ultrasound Compounding
- arxiv url: http://arxiv.org/abs/2601.06726v1
- Date: Sun, 11 Jan 2026 00:16:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.955208
- Title: USFetal: Tools for Fetal Brain Ultrasound Compounding
- Title(参考訳): USFetal:胎児脳超音波合成のためのツール
- Authors: Mohammad Khateri, Morteza Ghahremani, Sergio Valencia, Camilo Jaimes, Alejandra Sierra, Jussi Tohka, P. Ellen Grant, Davood Karimi,
- Abstract要約: 胎児脳超音波合成における計算戦略の体系的分類について述べる。
本稿では、自己教師型複合フレームワークと、教師なしの深層プラグ・アンド・プレイ事前適応の2つの新しい深層学習アプローチを紹介する。
- 参考スコア(独自算出の注目度): 36.580909261486646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasound offers a safe, cost-effective, and widely accessible technology for fetal brain imaging, making it especially suitable for routine clinical use. However, it suffers from view-dependent artifacts, operator variability, and a limited field of view, which make interpretation and quantitative evaluation challenging. Ultrasound compounding aims to overcome these limitations by integrating complementary information from multiple 3D acquisitions into a single, coherent volumetric representation. This work provides four main contributions: (1) We present the first systematic categorization of computational strategies for fetal brain ultrasound compounding, including both classical techniques and modern learning-based frameworks. (2) We implement and compare representative methods across four key categories - multi-scale, transformation-based, variational, and deep learning approaches - emphasizing their core principles and practical advantages. (3) Motivated by the lack of full-view, artifact-free ground truth required for supervised learning, we focus on unsupervised and self-supervised strategies and introduce two new deep learning based approaches: a self-supervised compounding framework and an adaptation of unsupervised deep plug-and-play priors for compounding. (4) We conduct a comprehensive evaluation on ten multi-view fetal brain ultrasound datasets, using both expert radiologist scoring and standard quantitative image-quality metrics. We also release the USFetal Compounding Toolbox, publicly available to support benchmarking and future research. Keywords: Ultrasound compounding, fetal brain, deep learning, self-supervised, unsupervised.
- Abstract(参考訳): Ultrasoundは胎児の脳画像撮影に安全で費用対効果が高く、広くアクセスしやすい技術を提供しており、日常的な臨床用途に特に適している。
しかし、ビュー依存のアーティファクト、演算子可変性、限られた視野に悩まされ、解釈と定量的評価が困難になる。
超音波合成は、複数の3次元取得から相補的な情報を1つの一貫した体積表現に統合することにより、これらの制限を克服することを目的としている。
本研究は, 胎児脳超音波合成における計算戦略の体系的分類として, 古典的手法と近代的学習基盤の双方を含む最初の体系的分類を提示する。
2) 4つの主要なカテゴリ – マルチスケール,トランスフォーメーションベース,変動型,ディープラーニングアプローチ – に代表的手法を実装し,比較する。
(3) 教師なし学習に必要なフルビュー・アーティファクト・フリー・グラウンドの真理が欠如していることから,教師なし・自己監督型戦略に焦点をあて,自己監督型複合化フレームワークと教師なしの深層プラグ・アンド・プレイ方式の導入という,新たな深層学習ベースのアプローチを導入する。
4) 専門的放射線検査と標準定量的画像品質指標を用いて, マルチビュー胎児脳超音波データセットの総合的評価を行った。
また、ベンチマークと将来の研究をサポートするために公開されているUSFetal Compounding Toolboxをリリースしています。
キーワード:超音波合成、胎児脳、深層学習、自己監督、教師なし。
関連論文リスト
- FETAL-GAUGE: A Benchmark for Assessing Vision-Language Models in Fetal Ultrasound [2.8097961263689406]
出生前超音波画像の需要は、訓練されたソノグラフィーの世界的な不足を増している。
深層学習は、ソノグラフィーの効率を高め、新しい実践者の訓練を支援する可能性がある。
We present Fetal-Gauge, the first and largest visual question answering benchmark designed to evaluate Vision-Language Models (VLMs)。
対象は,42,000枚以上の画像と93,000枚の質問応答対,解剖学的平面同定,解剖学的形態の視覚的グラウンドニング,胎児の配向評価,臨床像の適合性,臨床診断である。
論文 参考訳(メタデータ) (2025-12-25T04:54:37Z) - A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - HDC: Hierarchical Distillation for Multi-level Noisy Consistency in Semi-Supervised Fetal Ultrasound Segmentation [2.964206587462833]
HDCと呼ばれる新しい半教師付きセグメンテーションフレームワークが提案されている。
この枠組みは,特徴表現の整合化のための相関誘導損失と,雑音の多い学生学習を安定化するための相互情報損失の2つの目的を持つ階層的蒸留機構を導入している。
論文 参考訳(メタデータ) (2025-04-14T04:52:24Z) - Deep Spectral Methods for Unsupervised Ultrasound Image Interpretation [53.37499744840018]
本稿では, 超音波を応用した非教師型深層学習手法を提案する。
我々は、スペクトルグラフ理論と深層学習法を組み合わせた教師なしディープスペクトル法から重要な概念を統合する。
スペクトルクラスタリングの自己教師型トランスフォーマー機能を利用して、超音波特有のメトリクスと形状と位置の先行値に基づいて意味のあるセグメントを生成し、データセット間のセマンティック一貫性を確保する。
論文 参考訳(メタデータ) (2024-08-04T14:30:14Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - Learn2Reg: comprehensive multi-task medical image registration
challenge, dataset and evaluation in the era of deep learning [19.267693026491482]
Learn2Regは、脳、腹部、胸部、超音波、CT、MRI、人口、患者内および患者間、監督レベルなど幅広い解剖学をカバーしている。
堅牢性、正確性、可視性、スピードなど、我々の補完的な指標は、医用画像登録の現状について独自の洞察を与えてくれる。
論文 参考訳(メタデータ) (2021-12-08T09:46:39Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z) - Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound [1.9814912982226993]
そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
論文 参考訳(メタデータ) (2020-09-23T09:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。