論文の概要: Metadata-enhanced contrastive learning from retinal optical coherence
tomography images
- arxiv url: http://arxiv.org/abs/2208.02529v1
- Date: Thu, 4 Aug 2022 08:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:40:33.143932
- Title: Metadata-enhanced contrastive learning from retinal optical coherence
tomography images
- Title(参考訳): 網膜光コヒーレンス断層画像からのメタデータ強調コントラスト学習
- Authors: Robbie Holland, Oliver Leingang, Hrvoje Bogunovi\'c, Sophie Riedl,
Lars Fritsche, Toby Prevost, Hendrik P. N. Scholl, Ursula Schmidt-Erfurth,
Sobha Sivaprasad, Andrew J. Lotery, Daniel Rueckert and Martin J. Menten
- Abstract要約: 老化関連黄斑変性(AMD)の臨床評価において,SimCLRとBYOLの併用による事前訓練が深層学習の有用性を向上させることが示唆された。
患者の身元、視線位置(左または右)、時系列データに記録を用いて、画像間のコントラスト関係の典型的な不可解なセットを示す。
- 参考スコア(独自算出の注目度): 7.19474530201314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised deep learning algorithms hold great potential to automate
screening, monitoring and grading of medical images. However, training
performant models has typically required vast quantities of labelled data,
which is scarcely available in the medical domain. Self-supervised contrastive
frameworks relax this dependency by first learning from unlabelled images. In
this work we show that pretraining with two contrastive methods, SimCLR and
BYOL, improves the utility of deep learning with regard to the clinical
assessment of age-related macular degeneration (AMD). In experiments using two
large clinical datasets containing 170,427 optical coherence tomography (OCT)
images of 7,912 patients, we evaluate benefits attributed to pretraining across
seven downstream tasks ranging from AMD stage and type classification to
prediction of functional endpoints to segmentation of retinal layers, finding
performance significantly increased in six out of seven tasks with fewer
labels. However, standard contrastive frameworks have two known weaknesses that
are detrimental to pretraining in the medical domain. Several of the image
transformations used to create positive contrastive pairs are not applicable to
greyscale medical scans. Furthermore, medical images often depict the same
anatomical region and disease severity, resulting in numerous misleading
negative pairs. To address these issues we develop a novel metadata-enhanced
approach that exploits the rich set of inherently available patient
information. To this end we employ records for patient identity, eye position
(i.e. left or right) and time series data to indicate the typically unknowable
set of inter-image contrastive relationships. By leveraging this often
neglected information our metadata-enhanced contrastive pretraining leads to
further benefits and outperforms conventional contrastive methods in five out
of seven downstream tasks.
- Abstract(参考訳): 教師付きディープラーニングアルゴリズムは、医療画像のスクリーニング、監視、評価を自動化する大きな可能性を秘めている。
しかし、トレーニングパフォーマンスモデルは通常大量のラベル付きデータを必要としており、医療分野ではほとんど利用できない。
自己監督型コントラストフレームワークは、この依存関係を非競合画像から学習することで緩和する。
本研究は,SimCLRとBYOLの2つの対照的な方法による事前トレーニングにより,加齢関連黄斑変性(AMD)の臨床評価において,深層学習の有用性が向上することを示す。
170,427光コヒーレンス断層撮影(OCT)画像を含む2つの大きな臨床データセットを用いて,AMDステージおよびタイプ分類から機能的エンドポイントの予測,網膜層のセグメンテーションに至るまで,7つの下流タスクの事前訓練による効果を評価し,ラベルの少ない7タスクのうち6タスクでパフォーマンスが有意に向上した。
しかし、標準的なコントラストフレームワークには、医学領域における事前訓練に有害な2つの既知の弱点がある。
負のコントラスト対を生成するために使用される画像変換は、グレースケールの医療スキャンには適用できない。
さらに、医療画像は、しばしば同じ解剖学的領域と病気の重症度を描いており、多くの誤解を招く負のペアを生み出している。
これらの問題に対処するため,本質的な患者情報を豊富に活用するメタデータ強化アプローチを開発した。
この目的のために、患者識別、目の位置(左または右)、時系列データの記録を用いて、画像間のコントラスト関係の典型的な不可知集合を示す。
しばしば無視される情報を活用することで、メタデータを強調したコントラストプリトレーニングは、さらにメリットをもたらし、7つのダウンストリームタスクのうち5つで従来のコントラストメソッドよりも優れています。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - BiomedJourney: Counterfactual Biomedical Image Generation by
Instruction-Learning from Multimodal Patient Journeys [99.7082441544384]
本稿では,インストラクション学習によるバイオメディカル画像生成のための新しい手法であるBiomedJourneyを紹介する。
我々は、GPT-4を用いて、対応する画像レポートを処理し、疾患進行の自然言語記述を生成する。
得られた三重項は、反現実的なバイオメディカル画像生成のための潜伏拡散モデルを訓練するために使用される。
論文 参考訳(メタデータ) (2023-10-16T18:59:31Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - ContIG: Self-supervised Multimodal Contrastive Learning for Medical
Imaging with Genetics [4.907551775445731]
本研究では、ラベルのない医療画像と遺伝データの大規模なデータセットから学習できる自己教師付き手法であるContIGを提案する。
提案手法は特徴空間における画像といくつかの遺伝的モダリティをコントラスト的損失を用いて整列させる。
また、我々のモデルで学んだ特徴に関するゲノムワイド・アソシエーション研究を行い、画像と遺伝データの間の興味深い関係を明らかにする。
論文 参考訳(メタデータ) (2021-11-26T11:06:12Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - MedAug: Contrastive learning leveraging patient metadata improves
representations for chest X-ray interpretation [8.403653472706822]
患者メタデータを用いて、異なる画像の視点からポジティブなペアを選択する手法を開発しています。
胸部X線解釈の正の対を選択するための戦略を比較検討し, 同一患者, 画像研究, 側方性などを検討した。
すべての側面で同じ研究から同じ患者からのイメージを使用することを含む私達の最もよい性能の肯定的な対の選択戦略は平均AUCの3.4%そして14.4%の性能の増加を達成します。
論文 参考訳(メタデータ) (2021-02-21T18:39:04Z) - Contrastive Learning of Medical Visual Representations from Paired
Images and Text [38.91117443316013]
本研究では,自然発生した記述的ペアリングテキストを活用することで,医用視覚表現を学習するための教師なし戦略であるConVIRTを提案する。
この2つのモダリティ間の双方向のコントラスト的目的を通じて、ペア化されたテキストデータを用いて医療画像エンコーダを事前訓練する手法は、ドメインに依存しないため、追加の専門家による入力は不要である。
論文 参考訳(メタデータ) (2020-10-02T02:10:18Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。