論文の概要: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- arxiv url: http://arxiv.org/abs/2301.09914v1
- Date: Tue, 24 Jan 2023 10:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:51:11.220355
- Title: Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues
- Title(参考訳): マルチモーダルインタラクティブ肺病変分割法 : 生理的および解剖学的クイズに基づくPET/CT画像のアノテートのためのフレームワーク
- Authors: Verena Jasmin Hallitschke, Tobias Schlumberger, Philipp Kataliakos,
Zdravko Marinov, Moon Kim, Lars Heiliger, Constantin Seibold, Jens Kleesiek,
Rainer Stiefelhagen
- Abstract要約: 深層学習は、医療画像における様々な病気の正確なセグメンテーションを可能にした。
しかしながら、これらのパフォーマンスは通常、大量の手動のボクセルアノテーションを必要とする。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.159693927845975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning enabled the accurate segmentation of various diseases
in medical imaging. These performances, however, typically demand large amounts
of manual voxel annotations. This tedious process for volumetric data becomes
more complex when not all required information is available in a single imaging
domain as is the case for PET/CT data. We propose a multimodal interactive
segmentation framework that mitigates these issues by combining anatomical and
physiological cues from PET/CT data. Our framework utilizes the geodesic
distance transform to represent the user annotations and we implement a novel
ellipsoid-based user simulation scheme during training. We further propose two
annotation interfaces and conduct a user study to estimate their usability. We
evaluated our model on the in-domain validation dataset and an unseen PET/CT
dataset. We make our code publicly available:
https://github.com/verena-hallitschke/pet-ct-annotate.
- Abstract(参考訳): 近年, 深層学習により, 様々な疾患の正確な分類が可能となった。
しかし、これらのパフォーマンスは通常、大量の手動のvoxelアノテーションを必要とする。
PET/CTデータのように、1つの画像領域で全ての必要な情報が得られない場合には、この面倒なボリュームデータ処理はより複雑になる。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
本フレームワークは,測地距離変換を利用してユーザアノテーションを表現し,訓練中に新しい楕円型ユーザシミュレーションスキームを実装した。
さらに,アノテーションインタフェースを2つ提案し,ユーザビリティを評価するためにユーザ調査を行う。
ドメイン内検証データセットと未確認PET/CTデータセットを用いて,本モデルの評価を行った。
コードを公開しています。 https://github.com/verena-hallitschke/pet-ct-annotate。
関連論文リスト
- Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - RadTex: Learning Efficient Radiograph Representations from Text Reports [7.090896766922791]
我々は,放射線学報告を利用して,限られたラベル付きデータを用いた医用画像分類性能を向上させるための,データ効率のよい学習フレームワークを構築した。
本モデルは,ラベル付きトレーニングデータに制限がある場合,ImageNetによる事前学習よりも高い分類性能を実現する。
論文 参考訳(メタデータ) (2022-08-05T15:06:26Z) - SD-LayerNet: Semi-supervised retinal layer segmentation in OCT using
disentangled representation with anatomical priors [4.2663199451998475]
網膜層セグメンテーションタスクに半教師付きパラダイムを導入する。
特に、表面位置回帰をピクセル単位で構造化されたセグメンテーションに変換するために、新しい完全微分可能なアプローチが用いられる。
並行して,ラベル付きデータの限られた量が利用できる場合に,ネットワークトレーニングを改善するための解剖学的事前セットを提案する。
論文 参考訳(メタデータ) (2022-07-01T14:30:59Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z) - Progressive Adversarial Semantic Segmentation [11.323677925193438]
深い畳み込みニューラルネットワークは、完全な監視が与えられた場合、非常によく機能する。
画像解析タスクのための完全教師付きモデルの成功は、大量のラベル付きデータの入手に限られる。
本稿では,新しい医用画像分割モデル,Progressive Adrial Semantic(PASS)を提案する。
論文 参考訳(メタデータ) (2020-05-08T22:48:00Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。