論文の概要: vMFNet: Compositionality Meets Domain-generalised Segmentation
- arxiv url: http://arxiv.org/abs/2206.14538v1
- Date: Wed, 29 Jun 2022 11:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 00:57:21.131869
- Title: vMFNet: Compositionality Meets Domain-generalised Segmentation
- Title(参考訳): vMFNet: 構成性はドメイン一般化セグメンテーションと出会う
- Authors: Xiao Liu, Spyridon Thermos, Pedro Sanchez, Alison Q. O'Neil and
Sotirios A. Tsaftaris
- Abstract要約: von-Mises-Fisher(vMF)カーネルは、異なるドメインから収集された画像に対して堅牢である。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
再構成モジュールでは、ラベルのないデータを使用してvMFカーネルと可能性を学ぶこともできる。
- 参考スコア(独自算出の注目度): 22.741376970643973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training medical image segmentation models usually requires a large amount of
labeled data. By contrast, humans can quickly learn to accurately recognise
anatomy of interest from medical (e.g. MRI and CT) images with some limited
guidance. Such recognition ability can easily generalise to new images from
different clinical centres. This rapid and generalisable learning ability is
mostly due to the compositional structure of image patterns in the human brain,
which is less incorporated in medical image segmentation. In this paper, we
model the compositional components (i.e. patterns) of human anatomy as
learnable von-Mises-Fisher (vMF) kernels, which are robust to images collected
from different domains (e.g. clinical centres). The image features can be
decomposed to (or composed by) the components with the composing operations,
i.e. the vMF likelihoods. The vMF likelihoods tell how likely each anatomical
part is at each position of the image. Hence, the segmentation mask can be
predicted based on the vMF likelihoods. Moreover, with a reconstruction module,
unlabeled data can also be used to learn the vMF kernels and likelihoods by
recombining them to reconstruct the input image. Extensive experiments show
that the proposed vMFNet achieves improved generalisation performance on two
benchmarks, especially when annotations are limited. Code is publicly available
at: https://github.com/vios-s/vMFNet.
- Abstract(参考訳): 医療画像セグメンテーションモデルのトレーニングは通常、大量のラベル付きデータを必要とする。
対照的に、ヒトは医学的(MRIやCTのような)画像から興味ある解剖学をある程度のガイダンスで正確に認識することができる。
このような認識能力は、異なる臨床センターの新しい画像に容易に一般化することができる。
この迅速で一般化可能な学習能力は、主にヒト脳における画像パターンの構成構造によるもので、医用画像セグメンテーションには組み込まれていない。
本稿では,異なる領域(臨床センターなど)から収集された画像に対して頑健なvon-mises-fisher(vmf)カーネルとして,ヒト解剖学の構成成分(パターン)をモデル化する。
画像の特徴は、構成操作を伴うコンポーネント、すなわちvmfの可能性によって分解(または構成)することができる。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
したがって、セグメント化マスクはvMF確率に基づいて予測できる。
さらに、リコンストラクションモジュールでは、ラベルのないデータを使用して、入力イメージをリコンストラクションするために再結合することで、vMFカーネルや可能性を学ぶこともできる。
拡張実験の結果,提案した vMFNet は2つのベンチマーク,特にアノテーションが限定された場合の一般化性能の向上を実現している。
コードはhttps://github.com/vios-s/vMFNet.comで公開されている。
関連論文リスト
- Do Vision Foundation Models Enhance Domain Generalization in Medical Image Segmentation? [10.20366295974822]
本稿では,2つの最先端デコーダヘッドであるHSAMとHQSAMの要素を統合し,セグメンテーション性能を向上させる新しいデコーダヘッドアーキテクチャであるHQHSAMを紹介する。
種々の解剖学やモダリティを含む複数のデータセットに対する実験により,FM,特にHQHSAMデコードヘッドを用いて,医用画像分割のための領域一般化が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-12T11:41:35Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Teaching AI the Anatomy Behind the Scan: Addressing Anatomical Flaws in Medical Image Segmentation with Learnable Prior [34.54360931760496]
臓器の数、形状、相対的な位置などの重要な解剖学的特徴は、堅牢な多臓器分割モデルの構築に不可欠である。
我々は Anatomy-Informed Network (AIC-Net) と呼ばれる新しいアーキテクチャを導入する。
AIC-Netは、患者固有の解剖学に適応できる「解剖学的事前」と呼ばれる学習可能な入力を組み込んでいる。
論文 参考訳(メタデータ) (2024-03-27T10:46:24Z) - SM2C: Boost the Semi-supervised Segmentation for Medical Image by using Meta Pseudo Labels and Mixed Images [13.971120210536995]
医用画像のセマンティックな特徴を学習する能力を向上させるために,SM2C(Scaling-up Mix with Multi-Class)を導入した。
セグメンテーションオブジェクトの形状を多様化し、各サンプル内の意味情報を豊かにすることにより、SM2Cはそのポテンシャルを示す。
提案したフレームワークは、最先端のフレームワークよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-24T04:39:40Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Compositionally Equivariant Representation Learning [22.741376970643973]
人間は、MRIやCTスキャンなどの医療画像で重要な解剖学を素早く学べる。
この認識機能は、異なる医療施設からの新しい画像や、異なる設定で新しいタスクに容易に一般化する。
医用画像のセグメンテーションにおいて,より解釈可能で一般化可能な表現の学習における構成性の活用について検討した。
論文 参考訳(メタデータ) (2023-06-13T14:06:55Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Recurrent Mask Refinement for Few-Shot Medical Image Segmentation [15.775057485500348]
本稿では,プロトタイプネットワークに基づく数ショットの医用画像セグメンテーションのための新しいフレームワークを提案する。
1) 前景と背景領域間の局所的関係の特徴を関連付けるために相関を利用するコンテキスト関係エンコーダ(CRE)である。
2つの腹部CTデータセットと腹部MRIデータセットを用いた実験により、提案手法は最先端の方法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2021-08-02T04:06:12Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。