論文の概要: Synthesizing Multi-Class Surgical Datasets with Anatomy-Aware Diffusion Models
- arxiv url: http://arxiv.org/abs/2410.07753v1
- Date: Thu, 10 Oct 2024 09:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:06:11.600604
- Title: Synthesizing Multi-Class Surgical Datasets with Anatomy-Aware Diffusion Models
- Title(参考訳): 解剖学的拡散モデルを用いた多種手術データセットの合成
- Authors: Danush Kumar Venkatesh, Dominik Rivoir, Micha Pfeiffer, Fiona Kolbinger, Stefanie Speidel,
- Abstract要約: コンピュータ支援手術では,解剖学的臓器の自動認識が手術現場の理解に不可欠である。
機械学習モデルはそのような構造を識別できるが、それらの展開はラベル付き多様な外科的データセットの必要性によって妨げられる。
アノテーションを用いた多段階手術データセットを生成するために拡散モデルを用いた多段階的アプローチを提案する。
- 参考スコア(独自算出の注目度): 1.9085155846692308
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In computer-assisted surgery, automatically recognizing anatomical organs is crucial for understanding the surgical scene and providing intraoperative assistance. While machine learning models can identify such structures, their deployment is hindered by the need for labeled, diverse surgical datasets with anatomical annotations. Labeling multiple classes (i.e., organs) in a surgical scene is time-intensive, requiring medical experts. Although synthetically generated images can enhance segmentation performance, maintaining both organ structure and texture during generation is challenging. We introduce a multi-stage approach using diffusion models to generate multi-class surgical datasets with annotations. Our framework improves anatomy awareness by training organ specific models with an inpainting objective guided by binary segmentation masks. The organs are generated with an inference pipeline using pre-trained ControlNet to maintain the organ structure. The synthetic multi-class datasets are constructed through an image composition step, ensuring structural and textural consistency. This versatile approach allows the generation of multi-class datasets from real binary datasets and simulated surgical masks. We thoroughly evaluate the generated datasets on image quality and downstream segmentation, achieving a $15\%$ improvement in segmentation scores when combined with real images. Our codebase https://gitlab.com/nct_tso_public/muli-class-image-synthesis
- Abstract(参考訳): コンピュータ支援手術では,解剖学的臓器の自動認識が手術現場の理解と術中補助に不可欠である。
機械学習モデルはそのような構造を識別できるが、それらの展開は、解剖学的アノテーションでラベル付けされた多様な外科的データセットの必要性によって妨げられる。
手術シーンにおける複数のクラス(臓器)のラベル付けには時間を要するため、専門医が必要である。
合成画像はセグメンテーション性能を向上させることができるが、生成時の臓器構造とテクスチャの維持は困難である。
アノテーションを用いた多段階手術データセットを生成するために拡散モデルを用いた多段階的アプローチを提案する。
本フレームワークは,二分節マスクを応用した臓器特異的モデルの訓練により,解剖学的意識の向上を図る。
臓器は、事前訓練されたControlNetを使用して、臓器構造を維持する推論パイプラインで生成される。
合成多クラスデータセットは、画像合成ステップを通じて構築され、構造的およびテクスチャ的整合性を確保する。
この汎用的なアプローチにより、実際のバイナリデータセットとシミュレートされた手術マスクから、マルチクラスのデータセットを生成することができる。
画像の品質と下流のセグメンテーションに関するデータセットを徹底的に評価し,実画像と組み合わせた場合のセグメンテーションスコアが15.5%向上した。
コードベース https://gitlab.com/nct_tso_public/muli-class-image- synthesis
関連論文リスト
- Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Generalizing Surgical Instruments Segmentation to Unseen Domains with
One-to-Many Synthesis [18.830738606514736]
ディープラーニングの手法は、実世界の外科的応用への展開を妨げることが多い。
データ収集、アノテーション、ドメインシフトは、最も一般的な障害である。
我々は、最小限のソースイメージを効率よく活用して、合成外科用機器セグメンテーションデータセットを生成することにより、データ関連の問題を緩和する。
論文 参考訳(メタデータ) (2023-06-28T15:06:44Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Learning Incrementally to Segment Multiple Organs in a CT Image [11.082692639365982]
マルチ組織セグメンテーションモデルを漸進的に学習することを提案する。
漸進的な学習段階では、以前のデータやアノテーションへのアクセスが失われます。
我々は,CT多臓器分節化において,このような弱点はほとんど消失することが実験的に確認された。
論文 参考訳(メタデータ) (2022-03-04T02:32:04Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks [4.926395463398194]
深層学習に基づくセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アルゴリズムを提案する。
実世界の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提示する。
論文 参考訳(メタデータ) (2020-08-23T23:30:15Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Retinal Image Segmentation with a Structure-Texture Demixing Network [62.69128827622726]
複雑な構造とテクスチャ情報は網膜画像に混在し、その情報の識別が困難である。
既存の手法はテクスチャと構造を共同で扱うため、偏りのあるモデルをテクスチャ認識に導くことができ、結果としてセグメンテーション性能は低下する。
本稿では,構造成分とテクスチャ成分を分離し,性能を大幅に向上させるセグメンテーション戦略を提案する。
論文 参考訳(メタデータ) (2020-07-15T12:19:03Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - LC-GAN: Image-to-image Translation Based on Generative Adversarial
Network for Endoscopic Images [22.253074722129053]
本稿では,GAN(Generative Adversarial Network)に基づくイメージ・ツー・イメージ翻訳モデルLive-cadaver GAN(LC-GAN)を提案する。
実写画像セグメンテーションでは,まずLC-GANを用いて,実写画像から実写画像に変換し,実写画像データセットで訓練したモデルを用いて偽写画像のセグメンテーションを行う。
提案手法は画像から画像への変換性が向上し,領域間セグメンテーションタスクにおけるセグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2020-03-10T19:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。