論文の概要: vMFNet: Compositionality Meets Domain-generalised Segmentation
- arxiv url: http://arxiv.org/abs/2206.14538v1
- Date: Wed, 29 Jun 2022 11:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 00:57:21.131869
- Title: vMFNet: Compositionality Meets Domain-generalised Segmentation
- Title(参考訳): vMFNet: 構成性はドメイン一般化セグメンテーションと出会う
- Authors: Xiao Liu, Spyridon Thermos, Pedro Sanchez, Alison Q. O'Neil and
Sotirios A. Tsaftaris
- Abstract要約: von-Mises-Fisher(vMF)カーネルは、異なるドメインから収集された画像に対して堅牢である。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
再構成モジュールでは、ラベルのないデータを使用してvMFカーネルと可能性を学ぶこともできる。
- 参考スコア(独自算出の注目度): 22.741376970643973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training medical image segmentation models usually requires a large amount of
labeled data. By contrast, humans can quickly learn to accurately recognise
anatomy of interest from medical (e.g. MRI and CT) images with some limited
guidance. Such recognition ability can easily generalise to new images from
different clinical centres. This rapid and generalisable learning ability is
mostly due to the compositional structure of image patterns in the human brain,
which is less incorporated in medical image segmentation. In this paper, we
model the compositional components (i.e. patterns) of human anatomy as
learnable von-Mises-Fisher (vMF) kernels, which are robust to images collected
from different domains (e.g. clinical centres). The image features can be
decomposed to (or composed by) the components with the composing operations,
i.e. the vMF likelihoods. The vMF likelihoods tell how likely each anatomical
part is at each position of the image. Hence, the segmentation mask can be
predicted based on the vMF likelihoods. Moreover, with a reconstruction module,
unlabeled data can also be used to learn the vMF kernels and likelihoods by
recombining them to reconstruct the input image. Extensive experiments show
that the proposed vMFNet achieves improved generalisation performance on two
benchmarks, especially when annotations are limited. Code is publicly available
at: https://github.com/vios-s/vMFNet.
- Abstract(参考訳): 医療画像セグメンテーションモデルのトレーニングは通常、大量のラベル付きデータを必要とする。
対照的に、ヒトは医学的(MRIやCTのような)画像から興味ある解剖学をある程度のガイダンスで正確に認識することができる。
このような認識能力は、異なる臨床センターの新しい画像に容易に一般化することができる。
この迅速で一般化可能な学習能力は、主にヒト脳における画像パターンの構成構造によるもので、医用画像セグメンテーションには組み込まれていない。
本稿では,異なる領域(臨床センターなど)から収集された画像に対して頑健なvon-mises-fisher(vmf)カーネルとして,ヒト解剖学の構成成分(パターン)をモデル化する。
画像の特徴は、構成操作を伴うコンポーネント、すなわちvmfの可能性によって分解(または構成)することができる。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
したがって、セグメント化マスクはvMF確率に基づいて予測できる。
さらに、リコンストラクションモジュールでは、ラベルのないデータを使用して、入力イメージをリコンストラクションするために再結合することで、vMFカーネルや可能性を学ぶこともできる。
拡張実験の結果,提案した vMFNet は2つのベンチマーク,特にアノテーションが限定された場合の一般化性能の向上を実現している。
コードはhttps://github.com/vios-s/vMFNet.comで公開されている。
関連論文リスト
- MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Compositionally Equivariant Representation Learning [22.741376970643973]
人間は、MRIやCTスキャンなどの医療画像で重要な解剖学を素早く学べる。
この認識機能は、異なる医療施設からの新しい画像や、異なる設定で新しいタスクに容易に一般化する。
医用画像のセグメンテーションにおいて,より解釈可能で一般化可能な表現の学習における構成性の活用について検討した。
論文 参考訳(メタデータ) (2023-06-13T14:06:55Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Recurrent Mask Refinement for Few-Shot Medical Image Segmentation [15.775057485500348]
本稿では,プロトタイプネットワークに基づく数ショットの医用画像セグメンテーションのための新しいフレームワークを提案する。
1) 前景と背景領域間の局所的関係の特徴を関連付けるために相関を利用するコンテキスト関係エンコーダ(CRE)である。
2つの腹部CTデータセットと腹部MRIデータセットを用いた実験により、提案手法は最先端の方法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2021-08-02T04:06:12Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Modeling the Probabilistic Distribution of Unlabeled Data forOne-shot
Medical Image Segmentation [40.41161371507547]
我々は1ショットの脳磁気共鳴画像(MRI)画像分割のためのデータ拡張法を開発した。
提案手法は,MRI画像1枚(atlas)とラベルなし画像数枚のみを利用する。
本手法は最先端のワンショット医療セグメンテーション法より優れている。
論文 参考訳(メタデータ) (2021-02-03T12:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。