論文の概要: 3DTINC: Time-Equivariant Non-Contrastive Learning for Predicting Disease Progression from Longitudinal OCTs
- arxiv url: http://arxiv.org/abs/2312.16980v2
- Date: Mon, 13 May 2024 10:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 00:43:11.858598
- Title: 3DTINC: Time-Equivariant Non-Contrastive Learning for Predicting Disease Progression from Longitudinal OCTs
- Title(参考訳): 3DTINC : 経時的非コントラスト学習による経時的OCTによる疾患進展予測
- Authors: Taha Emre, Arunava Chakravarty, Antoine Rivail, Dmitrii Lachinov, Oliver Leingang, Sophie Riedl, Julia Mai, Hendrik P. N. Scholl, Sobha Sivaprasad, Daniel Rueckert, Andrew Lotery, Ursula Schmidt-Erfurth, Hrvoje Bogunović,
- Abstract要約: 本研究では,非コントラスト学習に基づく縦型自己教師型学習手法である3DTINCを提案する。
3次元光コヒーレンストモグラフィ(OCT)ボリュームの摂動不変特性をOCT用に特別に設計した拡張を用いて学習するように設計されている。
加齢黄斑変性(AMD)などの網膜疾患の進行を予測するためには,この時間的情報が不可欠であることを示す実験を行った。
- 参考スコア(独自算出の注目度): 8.502838668378432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) has emerged as a powerful technique for improving the efficiency and effectiveness of deep learning models. Contrastive methods are a prominent family of SSL that extract similar representations of two augmented views of an image while pushing away others in the representation space as negatives. However, the state-of-the-art contrastive methods require large batch sizes and augmentations designed for natural images that are impractical for 3D medical images. To address these limitations, we propose a new longitudinal SSL method, 3DTINC, based on non-contrastive learning. It is designed to learn perturbation-invariant features for 3D optical coherence tomography (OCT) volumes, using augmentations specifically designed for OCT. We introduce a new non-contrastive similarity loss term that learns temporal information implicitly from intra-patient scans acquired at different times. Our experiments show that this temporal information is crucial for predicting progression of retinal diseases, such as age-related macular degeneration (AMD). After pretraining with 3DTINC, we evaluated the learned representations and the prognostic models on two large-scale longitudinal datasets of retinal OCTs where we predict the conversion to wet-AMD within a six months interval. Our results demonstrate that each component of our contributions is crucial for learning meaningful representations useful in predicting disease progression from longitudinal volumetric scans.
- Abstract(参考訳): 自己教師付き学習(SSL)は、ディープラーニングモデルの効率性と有効性を改善するための強力な技術として登場した。
コントラスト法(Contrastive method)は、イメージの2つの拡張ビューの類似した表現を抽出するSSLの顕著なファミリーである。
しかし、最先端のコントラスト法では、3D医療画像には実用的でない自然画像のために設計された大きなバッチサイズと拡張が必要である。
これらの制約に対処するために,非コントラスト学習に基づく新しい長手SSL方式である3DTINCを提案する。
3次元光コヒーレンストモグラフィ(OCT)ボリュームの摂動不変特性をOCT用に特別に設計した拡張を用いて学習するように設計されている。
異なる時間に取得した患者内スキャンから時間的情報を暗黙的に学習する非コントラスト類似性損失項を導入する。
本実験は, 加齢に伴う黄斑変性(AMD)などの網膜疾患の進行を予測する上で, この時間的情報は重要であることを示す。
3DTINCで事前トレーニングを行った後,網膜OCTの2つの大規模縦断データセットを用いて,学習した表現と予後モデルを評価し,湿式AMDへの変換を6ヶ月以内に予測した。
以上の結果から, コントリビューションの各コンポーネントは, 経時的容積スキャンによる疾患進行予測に有用な有意義な表現の学習に不可欠であることが示唆された。
関連論文リスト
- Neurovascular Segmentation in sOCT with Deep Learning and Synthetic Training Data [4.5276169699857505]
本研究は, 連続断面光コヒーレンストモグラフィー画像における神経血管セグメンテーションのための合成エンジンについて述べる。
提案手法は,ラベル合成とラベル・ツー・イメージ変換の2段階からなる。
前者の有効性を,より現実的なトレーニングラベルの集合と比較し,後者を合成ノイズと人工物モデルのアブレーション研究により実証した。
論文 参考訳(メタデータ) (2024-07-01T16:09:07Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - AI-based association analysis for medical imaging using latent-space
geometric confounder correction [6.488049546344972]
複数の共同設立者に対する意味的特徴解釈とレジリエンスを強調するAI手法を提案する。
このアプローチのメリットは,2次元合成データセットから共同創設者のいない特徴を抽出すること,出生前アルコール暴露と幼児の顔面形状との関連性を検討すること,の3つのシナリオで検証されている。
その結果, 共同設立者の影響を効果的に低減し, 共同設立団体の設立を減らした。
論文 参考訳(メタデータ) (2023-10-03T16:09:07Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - TINC: Temporally Informed Non-Contrastive Learning for Disease
Progression Modeling in Retinal OCT Volumes [4.397304270654923]
非競合的手法は損失に負を暗黙的に含み、異なる画像とモダリティをペアとして許容する。
時間的情報を用いた時間的コヒーレンストモグラフィーデータセットにおいて,既存の時間的情報を利用した。
本モデルは,中間年齢関連黄斑変性(AMD)から後期湿式AMDステージまでの時間枠内での変換のリスクを予測する上で,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2022-06-30T13:42:09Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Medical Instrument Segmentation in 3D US by Hybrid Constrained
Semi-Supervised Learning [62.13520959168732]
3DUSにおける楽器セグメンテーションのための半教師付き学習フレームワークを提案する。
SSL学習を実現するため、Dual-UNetが提案されている。
提案手法は,Diceの約68.6%-69.1%,推定時間約1秒を実現している。
論文 参考訳(メタデータ) (2021-07-30T07:59:45Z) - The interpretation of endobronchial ultrasound image using 3D
convolutional neural network for differentiating malignant and benign
mediastinal lesions [3.0969191504482247]
本研究の目的は,内胚葉超音波(EBUS)画像を用いて悪性病変と良性病変を鑑別することである。
我々のモデルはノイズに耐性があり、EBUSビデオの様々な画像特徴と願望を融合させることができる。
論文 参考訳(メタデータ) (2021-07-29T08:38:17Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。