論文の概要: Representing Part-Whole Hierarchies in Foundation Models by Learning Localizability, Composability, and Decomposability from Anatomy via Self-Supervision
- arxiv url: http://arxiv.org/abs/2404.15672v1
- Date: Wed, 24 Apr 2024 06:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:59:41.024085
- Title: Representing Part-Whole Hierarchies in Foundation Models by Learning Localizability, Composability, and Decomposability from Anatomy via Self-Supervision
- Title(参考訳): 自己スーパービジョンによる解剖学からの局所性、構成性、分解性学習による基礎モデルにおける部分ホール階層の表現
- Authors: Mohammad Reza Hosseinzadeh Taher, Michael B. Gotway, Jianming Liang,
- Abstract要約: 我々はAdam[79]を拡張する新しい自己教師型学習フレームワークであるAdam-v2を紹介します。
Adam-v2は3つのキーブランチを通じて学習目標に全階層を明示的に組み込んでいる。
ゼロショット、少数ショット転送、フル微調整設定において、Adam-v2の優れたパフォーマンスを示す11のベースラインと比較して、10タスクにわたる実験結果が得られた。
- 参考スコア(独自算出の注目度): 7.869873154804936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans effortlessly interpret images by parsing them into part-whole hierarchies; deep learning excels in learning multi-level feature spaces, but they often lack explicit coding of part-whole relations, a prominent property of medical imaging. To overcome this limitation, we introduce Adam-v2, a new self-supervised learning framework extending Adam [79] by explicitly incorporating part-whole hierarchies into its learning objectives through three key branches: (1) Localizability, acquiring discriminative representations to distinguish different anatomical patterns; (2) Composability, learning each anatomical structure in a parts-to-whole manner; and (3) Decomposability, comprehending each anatomical structure in a whole-to-parts manner. Experimental results across 10 tasks, compared to 11 baselines in zero-shot, few-shot transfer, and full fine-tuning settings, showcase Adam-v2's superior performance over large-scale medical models and existing SSL methods across diverse downstream tasks. The higher generality and robustness of Adam-v2's representations originate from its explicit construction of hierarchies for distinct anatomical structures from unlabeled medical images. Adam-v2 preserves a semantic balance of anatomical diversity and harmony in its embedding, yielding representations that are both generic and semantically meaningful, yet overlooked in existing SSL methods. All code and pretrained models are available at https://github.com/JLiangLab/Eden.
- Abstract(参考訳): 深層学習は多層特徴空間の学習において優れているが、医療画像の顕著な特性である部分全体関係の明示的なコーディングを欠いていることが多い。
この制限を克服するために、Adam-v2はAdam [79]を拡張した新しい自己教師型学習フレームワークを紹介した。Adam-v2は、(1)局所性、識別性、異なる解剖パターンを識別するための識別的表現、(2)構成性、各解剖学的構造を一括的に学習する、(3)分解性、各解剖学的構造全体を一括的に解釈する、という3つのキーブランチを通じて、学習目標に全階層を明示的に組み込むことによって、Adam [79]を拡張した新しい学習フレームワークである。
10タスクにわたる実験結果は、ゼロショット、少数ショット転送、フル微調整設定の11ベースラインと比較して、Adam-v2が大規模医療モデルとさまざまな下流タスクにまたがる既存のSSLメソッドよりも優れたパフォーマンスを示している。
アダム-v2の表現の一般性やロバスト性の高さは、ラベルのない医療画像と異なる解剖学的構造のための階層構造を明示的に構築することに由来する。
Adam-v2は、その埋め込みにおいて解剖学的多様性と調和のセマンティックバランスを保ち、ジェネリックかつセマンティックに意味のある表現を既存のSSLメソッドで見落としている。
すべてのコードと事前訓練されたモデルはhttps://github.com/JLiangLab/Eden.comで入手できる。
関連論文リスト
- Hierarchical Text-to-Vision Self Supervised Alignment for Improved Histopathology Representation Learning [64.1316997189396]
病理組織像のための新しい言語型自己教師学習フレームワーク,階層型言語型自己監督(HLSS)を提案する。
その結果,OpenSRH と TCGA の2つの医用画像ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-03-21T17:58:56Z) - Towards Foundation Models Learned from Anatomy in Medical Imaging via
Self-Supervision [8.84494874768244]
我々は,人間の解剖学に基づいて意識的,目的的に発達した医用画像の基礎モデルを提案する。
我々は,人間の解剖学の階層的性質を生かした,新たな自己教師型学習(SSL)戦略を考案した。
論文 参考訳(メタデータ) (2023-09-27T01:53:45Z) - MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Anatomical Invariance Modeling and Semantic Alignment for
Self-supervised Learning in 3D Medical Image Analysis [6.87667643104543]
自己教師付き学習(SSL)は、最近、3D医療画像解析タスクで有望なパフォーマンスを達成した。
現在のほとんどの手法は、元々写真や自然画像用に設計された既存のSSLパラダイムに従っている。
我々は,解剖的不変性モデリングと意味的アライメントを明確に満たす,自己教師付き学習フレームワークAliceを提案する。
論文 参考訳(メタデータ) (2023-02-11T06:36:20Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - LEAP: Learning Articulated Occupancy of People [56.35797895609303]
我々は、人体の新たな神経占有表現であるleap(learning articulated occupancy of people)を紹介する。
骨変換の集合と空間内の問合せ点が与えられると、leapはまずクエリポイントを学習線形ブレンドスキン(lbs)関数を介して正準空間にマッピングする。
LEAPは、正則空間における正確な同一性およびポーズ依存変形をモデル化する占有ネットワークを介して、占有値を効率的にクエリする。
論文 参考訳(メタデータ) (2021-04-14T13:41:56Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Learning Semantics-enriched Representation via Self-discovery,
Self-classification, and Self-restoration [12.609383051645887]
医用画像下の解剖学の自己発見、自己分類、自己復元により、セマンティックに富んだ視覚表現を学ぶために、深層モデルを訓練する。
セマンティック・ジェネシス(Semantic Genesis)は、6つの異なる目標タスクにおいて、自己監督または完全な監督によって、一般に利用可能なすべての事前訓練されたモデルで検証する。
実験の結果,セマンティック・ジェネシスは2次元画像ネットワークを用いたデファクト・トランスファー・ラーニングと同様に,その3次元の全てをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T10:36:10Z) - Global-Local Bidirectional Reasoning for Unsupervised Representation
Learning of 3D Point Clouds [109.0016923028653]
局所構造とグローバル形状の双方向推論による点雲表現を人間の監督なしに学習する。
本研究では, 実世界の3次元オブジェクト分類データセットにおいて, 教師なしモデルが最先端の教師付き手法を超越していることを示す。
論文 参考訳(メタデータ) (2020-03-29T08:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。