論文の概要: Compositionally Equivariant Representation Learning
- arxiv url: http://arxiv.org/abs/2306.07783v2
- Date: Sat, 17 Jun 2023 13:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:52:08.687801
- Title: Compositionally Equivariant Representation Learning
- Title(参考訳): 構成同変表現学習
- Authors: Xiao Liu, Pedro Sanchez, Spyridon Thermos, Alison Q. O'Neil and
Sotirios A. Tsaftaris
- Abstract要約: 人間は、MRIやCTスキャンなどの医療画像で重要な解剖学を素早く学べる。
この認識機能は、異なる医療施設からの新しい画像や、異なる設定で新しいタスクに容易に一般化する。
医用画像のセグメンテーションにおいて,より解釈可能で一般化可能な表現の学習における構成性の活用について検討した。
- 参考スコア(独自算出の注目度): 22.741376970643973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models often need sufficient supervision (i.e. labelled data)
in order to be trained effectively. By contrast, humans can swiftly learn to
identify important anatomy in medical images like MRI and CT scans, with
minimal guidance. This recognition capability easily generalises to new images
from different medical facilities and to new tasks in different settings. This
rapid and generalisable learning ability is largely due to the compositional
structure of image patterns in the human brain, which are not well represented
in current medical models. In this paper, we study the utilisation of
compositionality in learning more interpretable and generalisable
representations for medical image segmentation. Overall, we propose that the
underlying generative factors that are used to generate the medical images
satisfy compositional equivariance property, where each factor is compositional
(e.g. corresponds to the structures in human anatomy) and also equivariant to
the task. Hence, a good representation that approximates well the ground truth
factor has to be compositionally equivariant. By modelling the compositional
representations with learnable von-Mises-Fisher (vMF) kernels, we explore how
different design and learning biases can be used to enforce the representations
to be more compositionally equivariant under un-, weakly-, and semi-supervised
settings. Extensive results show that our methods achieve the best performance
over several strong baselines on the task of semi-supervised domain-generalised
medical image segmentation. Code will be made publicly available upon
acceptance at https://github.com/vios-s.
- Abstract(参考訳): ディープラーニングモデルは、効果的に訓練するために十分な監督(ラベル付きデータ)を必要とすることが多い。
対照的に、ヒトはMRIやCTスキャンのような医療画像の重要な解剖学を、最小限のガイダンスで素早く学べる。
この認識機能は、異なる医療施設の新しい画像や、異なる設定の新しいタスクに容易に一般化する。
この迅速で汎用的な学習能力は、現在の医学モデルではよく表現されていない人間の脳における画像パターンの構成構造によるものである。
本稿では,より解釈可能で一般化可能な医用画像分割表現の学習における構成性の利用について検討する。
全体として、医用画像を生成するために使用される生成因子は、各因子が構成的(例えば、ヒト解剖学の構造に対応する)であり、タスクと等価である構成的等式性を満たすことが提案される。
したがって、基底真理因子をよく近似するよい表現は合成同値である必要がある。
構成表現を学習可能なvon-Mises-Fisher(vMF)カーネルでモデル化することにより、異なる設計と学習バイアスを用いて、Un-, weakly, semi-supervised settingsの下でより構成的に同変であるように表現を強制する方法について検討する。
その結果,本手法は半教師付き領域一般化医療画像セグメンテーションのタスクにおいて,いくつかの強いベースライン上で最高の性能を達成できた。
コードはhttps://github.com/vios-sで公開される。
関連論文リスト
- Bayesian Intrinsic Groupwise Image Registration: Unsupervised
Disentanglement of Anatomy and Geometry [53.645443644821306]
本稿では,医用画像の集団登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から得られた4つのデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Multi-Prompt Fine-Tuning of Foundation Models for Enhanced Medical Image
Segmentation [10.946806607643689]
Segment Anything Model (SAM) は、自然画像セグメンテーションの革命的進歩を導入した強力な基礎モデルである。
本研究では,SAMのイメージ毎に複数のプロンプトをバンドルして処理する機能を活用した,新しい微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-03T19:05:00Z) - Exploring Transfer Learning in Medical Image Segmentation using
Vision-Language Models [0.9324036842528547]
本稿では,VLSMの2次元医用画像への変換学習に関する最初のベンチマーク研究について述べる。
以上の結果から,VLSMは自然画像とテキストのペアで訓練され,ゼロショット設定で医療領域に合理的に移行することが示唆された。
しかし、微調整中の言語プロンプトのさらなる利点は限られているかもしれない。
論文 参考訳(メタデータ) (2023-08-15T11:28:21Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with
Extremely Limited Labels [20.390832929798577]
我々はMine yOur owN Anatomy(MONA)と呼ばれる新しい半監督型医用画像分割フレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - vMFNet: Compositionality Meets Domain-generalised Segmentation [22.741376970643973]
von-Mises-Fisher(vMF)カーネルは、異なるドメインから収集された画像に対して堅牢である。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
再構成モジュールでは、ラベルのないデータを使用してvMFカーネルと可能性を学ぶこともできる。
論文 参考訳(メタデータ) (2022-06-29T11:31:23Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。