論文の概要: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- arxiv url: http://arxiv.org/abs/2301.09914v1
- Date: Tue, 24 Jan 2023 10:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:51:11.220355
- Title: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- Title(参考訳): マルチモーダルインタラクティブ肺病変分割法 : 生理的および解剖学的クイズに基づくPET/CT画像のアノテートのためのフレームワーク
- Authors: Verena Jasmin Hallitschke, Tobias Schlumberger, Philipp Kataliakos,
Zdravko Marinov, Moon Kim, Lars Heiliger, Constantin Seibold, Jens Kleesiek,
Rainer Stiefelhagen
- Abstract要約: 深層学習は、医療画像における様々な病気の正確なセグメンテーションを可能にした。
しかしながら、これらのパフォーマンスは通常、大量の手動のボクセルアノテーションを必要とする。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.159693927845975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning enabled the accurate segmentation of various diseases
in medical imaging. These performances, however, typically demand large amounts
of manual voxel annotations. This tedious process for volumetric data becomes
more complex when not all required information is available in a single imaging
domain as is the case for PET/CT data. We propose a multimodal interactive
segmentation framework that mitigates these issues by combining anatomical and
physiological cues from PET/CT data. Our framework utilizes the geodesic
distance transform to represent the user annotations and we implement a novel
ellipsoid-based user simulation scheme during training. We further propose two
annotation interfaces and conduct a user study to estimate their usability. We
evaluated our model on the in-domain validation dataset and an unseen PET/CT
dataset. We make our code publicly available:
https://github.com/verena-hallitschke/pet-ct-annotate.
- Abstract(参考訳): 近年, 深層学習により, 様々な疾患の正確な分類が可能となった。
しかし、これらのパフォーマンスは通常、大量の手動のvoxelアノテーションを必要とする。
PET/CTデータのように、1つの画像領域で全ての必要な情報が得られない場合には、この面倒なボリュームデータ処理はより複雑になる。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
本フレームワークは,測地距離変換を利用してユーザアノテーションを表現し,訓練中に新しい楕円型ユーザシミュレーションスキームを実装した。
さらに,アノテーションインタフェースを2つ提案し,ユーザビリティを評価するためにユーザ調査を行う。
ドメイン内検証データセットと未確認PET/CTデータセットを用いて,本モデルの評価を行った。
コードを公開しています。 https://github.com/verena-hallitschke/pet-ct-annotate。
関連論文リスト
- Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT [4.376648893167674]
AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
論文 参考訳(メタデータ) (2024-09-18T17:16:57Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - AutoPET Challenge: Tumour Synthesis for Data Augmentation [26.236831356731017]
我々は,CT画像のためのDiffTumor法を適用し,病変のあるPET-CT画像を生成する。
提案手法では,AutoPETデータセット上で生成モデルをトレーニングし,トレーニングデータの拡張に使用する。
以上の結果から,拡張データセットでトレーニングしたモデルでは,Diceスコアが向上し,データ拡張アプローチの可能性が示された。
論文 参考訳(メタデータ) (2024-09-12T14:23:19Z) - Sliding Window FastEdit: A Framework for Lesion Annotation in Whole-body
PET Images [24.7560446107659]
深層学習は、医療画像における病気の正確なセグメンテーションに革命をもたらした。
この要件は全身ポジトロン断層撮影(PET)の課題であり、身体全体に病変が散在している。
SW-FastEditは対話型セグメンテーションフレームワークで、voxelwiseアノテーションの代わりにほんの数クリックでラベル付けを高速化する。
我々のモデルは、AutoPETデータセット上の既存の非スライドウィンドウ対話モデルより優れており、以前は見えなかったHECKTORデータセットに一般化する。
論文 参考訳(メタデータ) (2023-11-24T13:45:58Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - TractCloud: Registration-free tractography parcellation with a novel
local-global streamline point cloud representation [63.842881844791094]
現在のトラクトグラフィーのパーセレーション法は登録に大きく依存しているが、登録の不正確さはパーセレーションに影響を及ぼす可能性がある。
我々は,個別の主題空間で直接,脳全体のトラクトログラフィ解析を行う,登録不要のフレームワークであるTractCloudを提案する。
論文 参考訳(メタデータ) (2023-07-18T06:35:12Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Progressive Adversarial Semantic Segmentation [11.323677925193438]
深い畳み込みニューラルネットワークは、完全な監視が与えられた場合、非常によく機能する。
画像解析タスクのための完全教師付きモデルの成功は、大量のラベル付きデータの入手に限られる。
本稿では,新しい医用画像分割モデル,Progressive Adrial Semantic(PASS)を提案する。
論文 参考訳(メタデータ) (2020-05-08T22:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。