論文の概要: SynStitch: a Self-Supervised Learning Network for Ultrasound Image Stitching Using Synthetic Training Pairs and Indirect Supervision
- arxiv url: http://arxiv.org/abs/2411.06750v1
- Date: Mon, 11 Nov 2024 07:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:08:03.106170
- Title: SynStitch: a Self-Supervised Learning Network for Ultrasound Image Stitching Using Synthetic Training Pairs and Indirect Supervision
- Title(参考訳): SynStitch: 合成トレーニングペアと間接スーパービジョンを用いた超音波画像スティッチのための自己監督型学習ネットワーク
- Authors: Xing Yao, Runxuan Yu, Dewei Hu, Hao Yang, Ange Lou, Jiacheng Wang, Daiwei Lu, Gabriel Arenas, Baris Oguz, Alison Pouch, Nadav Schwartz, Brett C Byram, Ipek Oguz,
- Abstract要約: 超音波(US)画像ステッチは、様々なプローブ位置から複数のUS画像を組み合わせることで、視野(FOV)を拡大することができる。
本稿では2DUS縫合用に設計された自己教師型フレームワークであるSynStitchを紹介する。
- 参考スコア(独自算出の注目度): 6.15446889067141
- License:
- Abstract: Ultrasound (US) image stitching can expand the field-of-view (FOV) by combining multiple US images from varied probe positions. However, registering US images with only partially overlapping anatomical contents is a challenging task. In this work, we introduce SynStitch, a self-supervised framework designed for 2DUS stitching. SynStitch consists of a synthetic stitching pair generation module (SSPGM) and an image stitching module (ISM). SSPGM utilizes a patch-conditioned ControlNet to generate realistic 2DUS stitching pairs with known affine matrix from a single input image. ISM then utilizes this synthetic paired data to learn 2DUS stitching in a supervised manner. Our framework was evaluated against multiple leading methods on a kidney ultrasound dataset, demonstrating superior 2DUS stitching performance through both qualitative and quantitative analyses. The code will be made public upon acceptance of the paper.
- Abstract(参考訳): 超音波(US)画像ステッチは、様々なプローブ位置から複数のUS画像を組み合わせることで、視野(FOV)を拡大することができる。
しかし、部分的に重なる解剖学的内容しか持たない米国画像の登録は難しい課題である。
本稿では2DUS縫合用に設計された自己教師型フレームワークであるSynStitchを紹介する。
SynStitchは合成縫合対生成モジュール(SSPGM)と画像縫合モジュール(ISM)から構成される。
SSPGMは、パッチ条件のControlNetを使用して、単一の入力画像から既知のアフィンマトリックスと現実的な2DUSステッチペアを生成する。
ISMは、この合成ペアデータを用いて、2DUSの縫合を教師付きで学習する。
本手法は, 腎臓超音波データセットを用いて, 定性的, 定量的な解析により, 2DUS縫合性能が良好であることが確認された。
コードは、論文の受理時に公表される。
関連論文リスト
- Bi-Modality Medical Image Synthesis Using Semi-Supervised Sequential
Generative Adversarial Networks [35.358653509217994]
本稿では,GANと半教師付き学習に基づく双方向医療画像合成手法を提案する。
提案手法は, 2つのモードの画像を逐次的に合成する2つの生成モジュールから構成される。
視覚的および定量的な結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-27T10:39:33Z) - An Explainable Deep Framework: Towards Task-Specific Fusion for
Multi-to-One MRI Synthesis [13.849499699377535]
マルチシーケンスMRIは信頼性診断と治療予後の診断に有用である。
近年の深層学習に基づく手法は、欠落したシーケンス合成のために複数の利用可能なシーケンスを組み合わせることで、優れた性能を実現している。
本稿では,特定のシーケンス生成タスクに重みを自動的に適応する,説明可能なタスク固有合成ネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-03T09:31:50Z) - Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations [2.1785903900600316]
医用画像合成のための新しい手法,すなわちunsupervised Mask (UM)-guided synthesisを提案する。
UM誘導合成は、忠実度、多様性、有用性が著しく高い高品質な合成画像を提供する。
論文 参考訳(メタデータ) (2023-03-19T20:30:35Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Pathology Synthesis of 3D-Consistent Cardiac MR Images using 2D VAEs and
GANs [0.5039813366558306]
本稿では,教師付きディープラーニング(DL)トレーニングの適用のためのラベル付きデータを生成する手法を提案する。
画像合成はラベル変形とラベルから画像への変換からなる。
心臓MRI画像のデータベースを多様化・拡張する手法として,このようなアプローチが有効であることを示す。
論文 参考訳(メタデータ) (2022-09-09T10:17:49Z) - SIAN: Style-Guided Instance-Adaptive Normalization for Multi-Organ
Histopathology Image Synthesis [63.845552349914186]
本研究では,異なる臓器に対して,現実的な色分布とテクスチャを合成するためのスタイル誘導型インスタンス適応正規化(SIAN)を提案する。
4つのフェーズは一緒に動作し、生成ネットワークに統合され、イメージセマンティクス、スタイル、インスタンスレベルのバウンダリを埋め込む。
論文 参考訳(メタデータ) (2022-09-02T16:45:46Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging [70.52819168140113]
我々は、英国バイオバンクの2万名以上の被験者のデータセットを使用し、全体Dixon法磁気共鳴法(MR)スキャンとデュアルエネルギーX線吸収率法(DXA)スキャンを併用した。
マルチモーダル画像マッチングコントラストフレームワークを導入し、同一対象の異なるモダリティスキャンを高精度にマッチングすることができる。
適応がなければ、この対照的なトレーニングステップで学習した対応が、自動クロスモーダルスキャン登録の実行に利用できることを示す。
論文 参考訳(メタデータ) (2021-07-14T12:35:05Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。