論文の概要: Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images
- arxiv url: http://arxiv.org/abs/2012.06457v1
- Date: Fri, 11 Dec 2020 16:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 06:14:53.663179
- Title: Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images
- Title(参考訳): コンテキスト: 医用画像のためのグラフに基づく自己教師型表現学習
- Authors: Li Sun, Ke Yu, Kayhan Batmanghelich
- Abstract要約: 2段階の自己監督型表現学習目標を備えた新しいアプローチを紹介します。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
我々のモデルは、画像中の臨床的に関連のある領域を識別できる。
- 参考スコア(独自算出の注目度): 21.23065972218941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised learning method requires a large volume of annotated datasets.
Collecting such datasets is time-consuming and expensive. Until now, very few
annotated COVID-19 imaging datasets are available. Although self-supervised
learning enables us to bootstrap the training by exploiting unlabeled data, the
generic self-supervised methods for natural images do not sufficiently
incorporate the context. For medical images, a desirable method should be
sensitive enough to detect deviation from normal-appearing tissue of each
anatomical region; here, anatomy is the context. We introduce a novel approach
with two levels of self-supervised representation learning objectives: one on
the regional anatomical level and another on the patient-level. We use graph
neural networks to incorporate the relationship between different anatomical
regions. The structure of the graph is informed by anatomical correspondences
between each patient and an anatomical atlas. In addition, the graph
representation has the advantage of handling any arbitrarily sized image in
full resolution. Experiments on large-scale Computer Tomography (CT) datasets
of lung images show that our approach compares favorably to baseline methods
that do not account for the context. We use the learnt embedding to quantify
the clinical progression of COVID-19 and show that our method generalizes well
to COVID-19 patients from different hospitals. Qualitative results suggest that
our model can identify clinically relevant regions in the images.
- Abstract(参考訳): 教師付き学習法は大量の注釈付きデータセットを必要とする。
このようなデータセットの収集には時間と費用がかかる。
これまで、新型コロナウイルス(COVID-19)画像データセットに注釈を付けたものはほとんどない。
自己教師付き学習は、ラベルのないデータを利用してトレーニングをブートストラップすることができるが、自然画像の汎用的な自己教師付き手法は、文脈を十分に取り入れていない。
医用画像の場合、解剖学的には各解剖学的領域の正常な組織からの偏差を検出するのに十分な感度が望ましい。
本稿では,地域解剖学レベルと患者レベルの2段階の自己指導型表現学習目標を用いた新しいアプローチを提案する。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
グラフの構造は、各患者と解剖学的アトラスの間の解剖学的対応によって通知される。
さらに、グラフ表現は任意の任意サイズの画像をフル解像度で処理する利点がある。
肺画像の大規模コンピュータ断層撮影(CT)データセットを用いた実験により,本手法は文脈を考慮しないベースライン法と比較した。
learnt embeddedを使って、covid-19の臨床進歩を定量化し、この方法が異なる病院のcovid-19患者に広く普及していることを示す。
定性的な結果から,画像内の臨床関連領域を同定できることが示唆された。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Connecting the Dots: Graph Neural Network Powered Ensemble and
Classification of Medical Images [0.0]
医療画像の深層学習は、大量のトレーニングデータを必要とするため、制限されている。
画像フォレスティング変換を用いて、画像を最適にスーパーピクセルに分割する。
これらのスーパーピクセルはその後、グラフ構造化データに変換され、特徴の巧妙な抽出と関係のモデリングを可能にする。
論文 参考訳(メタデータ) (2023-11-13T13:20:54Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Graph Self-Supervised Learning for Endoscopic Image Matching [1.8275108630751844]
鍵点間の空間関係をモデル化するために,局所的な視覚的外観を捉える畳み込みニューラルネットワークと注目に基づくグラフニューラルネットワークを組み合わせた,新たな自己教師型アプローチを提案する。
我々のアプローチはラベル付きデータを必要とせず、完全に自己管理されたスキームで訓練されている。
提案手法は,最先端の手工法と深層学習法より優れ,精度(1)とマッチングスコア(99.3%)で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:53:41Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Context-aware Self-supervised Learning for Medical Images Using Graph
Neural Network [24.890564475121238]
本稿では,2段階の自己指導型表現学習目標を用いた新しい手法を提案する。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
グラフの構造は、各患者と解剖学的アトラスの間の解剖学的対応によって通知される。
論文 参考訳(メタデータ) (2022-07-06T20:30:12Z) - ContIG: Self-supervised Multimodal Contrastive Learning for Medical
Imaging with Genetics [4.907551775445731]
本研究では、ラベルのない医療画像と遺伝データの大規模なデータセットから学習できる自己教師付き手法であるContIGを提案する。
提案手法は特徴空間における画像といくつかの遺伝的モダリティをコントラスト的損失を用いて整列させる。
また、我々のモデルで学んだ特徴に関するゲノムワイド・アソシエーション研究を行い、画像と遺伝データの間の興味深い関係を明らかにする。
論文 参考訳(メタデータ) (2021-11-26T11:06:12Z) - GREN: Graph-Regularized Embedding Network for Weakly-Supervised Disease
Localization in X-ray images [35.18562405272593]
コンテキスト情報や補償情報として、クロスリージョンとクロスイメージの関係は、より一貫性のある統合された領域を得るために不可欠である。
胸部X線画像上の疾患の特定に画像内および画像間情報を活用するグラフ正規化埋め込みネットワーク(GREN)を提案する。
このことから,本研究はNIH胸部X線データを用いた軽度疾患局所化のための最先端の成果を得られた。
論文 参考訳(メタデータ) (2021-07-14T01:27:07Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Dynamic Graph Correlation Learning for Disease Diagnosis with Incomplete
Labels [66.57101219176275]
胸部X線画像上の疾患診断は,多ラベル分類の課題である。
本稿では,異なる疾患間の相互依存を調査する新たな視点を提示する病的診断グラフ畳み込みネットワーク(DD-GCN)を提案する。
本手法は,相関学習のための動的隣接行列を用いた特徴写像上のグラフを初めて構築する手法である。
論文 参考訳(メタデータ) (2020-02-26T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。