論文の概要: oculomix: Hierarchical Sampling for Retinal-Based Systemic Disease Prediction
- arxiv url: http://arxiv.org/abs/2601.19939v1
- Date: Fri, 16 Jan 2026 16:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.566609
- Title: oculomix: Hierarchical Sampling for Retinal-Based Systemic Disease Prediction
- Title(参考訳): Oculomix : 網膜型全身性疾患予測のための階層的サンプリング
- Authors: Hyunmin Kim, Yukun Zhou, Rahul A. Jonas, Lie Ju, Sunjin Hwang, Pearse A. Keane, Siegfried K. Wagner,
- Abstract要約: 混合サンプル増分のための階層型サンプリング戦略であるOculomixを提案する。
OculomixはAUROCで画像レベルのCutMixとMixUpを最大3%上回っている。
- 参考スコア(独自算出の注目度): 4.507488476249373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oculomics - the concept of predicting systemic diseases, such as cardiovascular disease and dementia, through retinal imaging - has advanced rapidly due to the data efficiency of transformer-based foundation models like RETFound. Image-level mixed sample data augmentations, such as CutMix and MixUp, are frequently used for training transformers, yet these techniques perturb patient-specific attributes, such as medical comorbidity and clinical factors, since they only account for images and labels. To address this limitation, we propose a hierarchical sampling strategy, Oculomix, for mixed sample augmentations. Our method is based on two clinical priors. First (exam level), images acquired from the same patient at the same time point share the same attributes. Second (patient level), images acquired from the same patient at different time points have a soft temporal trend, as morbidity generally increases over time. Guided by these priors, our method constrains the mixing space to the patient and exam levels to better preserve patient-specific characteristics and leverages their hierarchical relationships. The proposed method is validated using ViT models on a five-year prediction of major adverse cardiovascular events (MACE) in a large ethnically diverse population (Alzeye). We show that Oculomix consistently outperforms image-level CutMix and MixUp by up to 3% in AUROC, demonstrating the necessity and value of the proposed method in oculomics.
- Abstract(参考訳): 網膜イメージングによる心血管疾患や認知症などの全身疾患を予測する概念であるオキュロミクスは、RETFoundのようなトランスフォーマーベースの基盤モデルのデータ効率のために急速に進歩している。
CutMixやMixUpのような画像レベルの混合サンプルデータ拡張は、しばしばトランスフォーマーのトレーニングに使用されるが、これらのテクニックは、画像やラベルのみを考慮に入れているため、医療的共同性や臨床要因などの患者固有の属性を摂動させる。
この制限に対処するため,混合サンプル拡張のための階層型サンプリング戦略であるOculomixを提案する。
我々の手法は2つの臨床上の先例に基づいている。
まず、同じ患者から同時に取得した画像は、同じ属性を共有する。
第2(患者レベル)では、異なる時刻に同じ患者から取得した画像は、時間とともに一般的に死亡率が増加するため、ソフトな時間的傾向を持つ。
本手法は,患者固有の特徴をよりよく保存し,それらの階層的関係を活用するために,患者と試験レベルの混合空間を制約する。
提案手法は,大集団(アルゼエ)における大血管障害(MACE)の5年間の予測に基づいて,ViTモデルを用いて検証した。
OculomixはAUROCにおいて画像レベルのCutMixとMixUpを最大3%上回り,オキュロミクスにおける提案手法の必要性と価値を示す。
関連論文リスト
- HepatoGEN: Generating Hepatobiliary Phase MRI with Perceptual and Adversarial Models [33.7054351451505]
肝胆道相(HBP)画像の初期コントラスト位相からの深層学習に基づく合成手法を提案する。
pGANの定量的評価は, 視力評価とブラインドドラジオロジカル・レビューの併用により, pGANが最高の定量的性能を示した。
対照的に、U-Netは、より少ないアーティファクトで一貫した肝拡張を発生させ、DDPMは、微細構造の詳細の保存が限られているため、性能が低下した。
論文 参考訳(メタデータ) (2025-04-25T15:01:09Z) - LMT: Longitudinal Mixing Training, a Framework to Predict Disease
Progression from a Single Image [1.805673949640389]
本稿では,2つの連続試験間の重み付き平均時間である$t_mix$を用いて,時間認識モデルのトレーニングを行う新しい方法を提案する。
AUCは0.798で、視線は0.641で、視線は1枚の画像で重篤なDRを発生させるかどうかを予測した。
論文 参考訳(メタデータ) (2023-10-16T14:01:20Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - CellMix: A General Instance Relationship based Method for Data
Augmentation Towards Pathology Image Classification [6.9596321268519326]
病理画像解析では、高品質な注釈付きサンプルの取得と維持は非常に労働集約的な作業である。
本稿では,新しい分散指向型インプレースシャッフル手法であるCellMixフレームワークを提案する。
病理画像分類タスクにおける実験は、7つの異なるデータセット上でのSOTA(State-of-the-art)性能を示す。
論文 参考訳(メタデータ) (2023-01-27T03:17:35Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。