論文の概要: Compositionally Equivariant Representation Learning
- arxiv url: http://arxiv.org/abs/2306.07783v2
- Date: Sat, 17 Jun 2023 13:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:52:08.687801
- Title: Compositionally Equivariant Representation Learning
- Title(参考訳): 構成同変表現学習
- Authors: Xiao Liu, Pedro Sanchez, Spyridon Thermos, Alison Q. O'Neil and
Sotirios A. Tsaftaris
- Abstract要約: 人間は、MRIやCTスキャンなどの医療画像で重要な解剖学を素早く学べる。
この認識機能は、異なる医療施設からの新しい画像や、異なる設定で新しいタスクに容易に一般化する。
医用画像のセグメンテーションにおいて,より解釈可能で一般化可能な表現の学習における構成性の活用について検討した。
- 参考スコア(独自算出の注目度): 22.741376970643973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models often need sufficient supervision (i.e. labelled data)
in order to be trained effectively. By contrast, humans can swiftly learn to
identify important anatomy in medical images like MRI and CT scans, with
minimal guidance. This recognition capability easily generalises to new images
from different medical facilities and to new tasks in different settings. This
rapid and generalisable learning ability is largely due to the compositional
structure of image patterns in the human brain, which are not well represented
in current medical models. In this paper, we study the utilisation of
compositionality in learning more interpretable and generalisable
representations for medical image segmentation. Overall, we propose that the
underlying generative factors that are used to generate the medical images
satisfy compositional equivariance property, where each factor is compositional
(e.g. corresponds to the structures in human anatomy) and also equivariant to
the task. Hence, a good representation that approximates well the ground truth
factor has to be compositionally equivariant. By modelling the compositional
representations with learnable von-Mises-Fisher (vMF) kernels, we explore how
different design and learning biases can be used to enforce the representations
to be more compositionally equivariant under un-, weakly-, and semi-supervised
settings. Extensive results show that our methods achieve the best performance
over several strong baselines on the task of semi-supervised domain-generalised
medical image segmentation. Code will be made publicly available upon
acceptance at https://github.com/vios-s.
- Abstract(参考訳): ディープラーニングモデルは、効果的に訓練するために十分な監督(ラベル付きデータ)を必要とすることが多い。
対照的に、ヒトはMRIやCTスキャンのような医療画像の重要な解剖学を、最小限のガイダンスで素早く学べる。
この認識機能は、異なる医療施設の新しい画像や、異なる設定の新しいタスクに容易に一般化する。
この迅速で汎用的な学習能力は、現在の医学モデルではよく表現されていない人間の脳における画像パターンの構成構造によるものである。
本稿では,より解釈可能で一般化可能な医用画像分割表現の学習における構成性の利用について検討する。
全体として、医用画像を生成するために使用される生成因子は、各因子が構成的(例えば、ヒト解剖学の構造に対応する)であり、タスクと等価である構成的等式性を満たすことが提案される。
したがって、基底真理因子をよく近似するよい表現は合成同値である必要がある。
構成表現を学習可能なvon-Mises-Fisher(vMF)カーネルでモデル化することにより、異なる設計と学習バイアスを用いて、Un-, weakly, semi-supervised settingsの下でより構成的に同変であるように表現を強制する方法について検討する。
その結果,本手法は半教師付き領域一般化医療画像セグメンテーションのタスクにおいて,いくつかの強いベースライン上で最高の性能を達成できた。
コードはhttps://github.com/vios-sで公開される。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - MOSMOS: Multi-organ segmentation facilitated by medical report supervision [10.396987980136602]
マルチオーガンスーパービジョン(MOS)のための新しい事前学習・微調整フレームワークを提案する。
具体的には、まず、トレーニング前の段階で、医用画像とレポートのペアを合わせるために、グローバルコントラスト学習を導入する。
さらに,画像画素と臓器タグ間の意味的対応を暗黙的に学習するために,マルチラベル認識を活用する。
論文 参考訳(メタデータ) (2024-09-04T03:46:17Z) - Enhancing Cross-Modal Medical Image Segmentation through Compositionality [0.4194295877935868]
セグメント化性能と解釈可能性を向上させるために,クロスモーダルセグメンテーションネットワークにおける帰納バイアスとして構成性を導入する。
提案するネットワークは、学習可能なvon Mises-Fisherカーネルを用いて学習した表現に合成性を適用する。
実験の結果, セグメンテーション性能が向上し, 複数の医療データセットの計算コストが低減された。
論文 参考訳(メタデータ) (2024-08-21T15:57:24Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - SM2C: Boost the Semi-supervised Segmentation for Medical Image by using Meta Pseudo Labels and Mixed Images [13.971120210536995]
医用画像のセマンティックな特徴を学習する能力を向上させるために,SM2C(Scaling-up Mix with Multi-Class)を導入した。
セグメンテーションオブジェクトの形状を多様化し、各サンプル内の意味情報を豊かにすることにより、SM2Cはそのポテンシャルを示す。
提案したフレームワークは、最先端のフレームワークよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-24T04:39:40Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - vMFNet: Compositionality Meets Domain-generalised Segmentation [22.741376970643973]
von-Mises-Fisher(vMF)カーネルは、異なるドメインから収集された画像に対して堅牢である。
vMFは、各解剖学的部分が画像の各位置にある確率を推定する。
再構成モジュールでは、ラベルのないデータを使用してvMFカーネルと可能性を学ぶこともできる。
論文 参考訳(メタデータ) (2022-06-29T11:31:23Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。