論文の概要: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- arxiv url: http://arxiv.org/abs/2301.09914v1
- Date: Tue, 24 Jan 2023 10:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:51:11.220355
- Title: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- Title(参考訳): マルチモーダルインタラクティブ肺病変分割法 : 生理的および解剖学的クイズに基づくPET/CT画像のアノテートのためのフレームワーク
- Authors: Verena Jasmin Hallitschke, Tobias Schlumberger, Philipp Kataliakos,
Zdravko Marinov, Moon Kim, Lars Heiliger, Constantin Seibold, Jens Kleesiek,
Rainer Stiefelhagen
- Abstract要約: 深層学習は、医療画像における様々な病気の正確なセグメンテーションを可能にした。
しかしながら、これらのパフォーマンスは通常、大量の手動のボクセルアノテーションを必要とする。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.159693927845975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning enabled the accurate segmentation of various diseases
in medical imaging. These performances, however, typically demand large amounts
of manual voxel annotations. This tedious process for volumetric data becomes
more complex when not all required information is available in a single imaging
domain as is the case for PET/CT data. We propose a multimodal interactive
segmentation framework that mitigates these issues by combining anatomical and
physiological cues from PET/CT data. Our framework utilizes the geodesic
distance transform to represent the user annotations and we implement a novel
ellipsoid-based user simulation scheme during training. We further propose two
annotation interfaces and conduct a user study to estimate their usability. We
evaluated our model on the in-domain validation dataset and an unseen PET/CT
dataset. We make our code publicly available:
https://github.com/verena-hallitschke/pet-ct-annotate.
- Abstract(参考訳): 近年, 深層学習により, 様々な疾患の正確な分類が可能となった。
しかし、これらのパフォーマンスは通常、大量の手動のvoxelアノテーションを必要とする。
PET/CTデータのように、1つの画像領域で全ての必要な情報が得られない場合には、この面倒なボリュームデータ処理はより複雑になる。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
本フレームワークは,測地距離変換を利用してユーザアノテーションを表現し,訓練中に新しい楕円型ユーザシミュレーションスキームを実装した。
さらに,アノテーションインタフェースを2つ提案し,ユーザビリティを評価するためにユーザ調査を行う。
ドメイン内検証データセットと未確認PET/CTデータセットを用いて,本モデルの評価を行った。
コードを公開しています。 https://github.com/verena-hallitschke/pet-ct-annotate。
関連論文リスト
- Sliding Window FastEdit: A Framework for Lesion Annotation in Whole-body
PET Images [24.7560446107659]
深層学習は、医療画像における病気の正確なセグメンテーションに革命をもたらした。
この要件は全身ポジトロン断層撮影(PET)の課題であり、身体全体に病変が散在している。
SW-FastEditは対話型セグメンテーションフレームワークで、voxelwiseアノテーションの代わりにほんの数クリックでラベル付けを高速化する。
我々のモデルは、AutoPETデータセット上の既存の非スライドウィンドウ対話モデルより優れており、以前は見えなかったHECKTORデータセットに一般化する。
論文 参考訳(メタデータ) (2023-11-24T13:45:58Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - TractCloud: Registration-free tractography parcellation with a novel
local-global streamline point cloud representation [63.842881844791094]
現在のトラクトグラフィーのパーセレーション法は登録に大きく依存しているが、登録の不正確さはパーセレーションに影響を及ぼす可能性がある。
我々は,個別の主題空間で直接,脳全体のトラクトログラフィ解析を行う,登録不要のフレームワークであるTractCloudを提案する。
論文 参考訳(メタデータ) (2023-07-18T06:35:12Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - RadTex: Learning Efficient Radiograph Representations from Text Reports [7.090896766922791]
我々は,放射線学報告を利用して,限られたラベル付きデータを用いた医用画像分類性能を向上させるための,データ効率のよい学習フレームワークを構築した。
本モデルは,ラベル付きトレーニングデータに制限がある場合,ImageNetによる事前学習よりも高い分類性能を実現する。
論文 参考訳(メタデータ) (2022-08-05T15:06:26Z) - SD-LayerNet: Semi-supervised retinal layer segmentation in OCT using
disentangled representation with anatomical priors [4.2663199451998475]
網膜層セグメンテーションタスクに半教師付きパラダイムを導入する。
特に、表面位置回帰をピクセル単位で構造化されたセグメンテーションに変換するために、新しい完全微分可能なアプローチが用いられる。
並行して,ラベル付きデータの限られた量が利用できる場合に,ネットワークトレーニングを改善するための解剖学的事前セットを提案する。
論文 参考訳(メタデータ) (2022-07-01T14:30:59Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Progressive Adversarial Semantic Segmentation [11.323677925193438]
深い畳み込みニューラルネットワークは、完全な監視が与えられた場合、非常によく機能する。
画像解析タスクのための完全教師付きモデルの成功は、大量のラベル付きデータの入手に限られる。
本稿では,新しい医用画像分割モデル,Progressive Adrial Semantic(PASS)を提案する。
論文 参考訳(メタデータ) (2020-05-08T22:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。