論文の概要: Deep Learning for Cancer Prognosis Prediction Using Portrait Photos by
StyleGAN Embedding
- arxiv url: http://arxiv.org/abs/2306.14596v1
- Date: Mon, 26 Jun 2023 11:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:55:27.194189
- Title: Deep Learning for Cancer Prognosis Prediction Using Portrait Photos by
StyleGAN Embedding
- Title(参考訳): stylegan 埋め込み画像を用いた癌予後予測のための深層学習
- Authors: Amr Hagag, Ahmed Gomaa, Dominik Kornek, Andreas Maier, Rainer Fietkau,
Christoph Bert, Florian Putz and Yixing Huang
- Abstract要約: 生き残り予測のためのディープラーニングを用いて,従来の肖像画に含まれる予後情報を客観的に捕捉し,活用する効果について検討した。
StyleGAN2モデルは、がん患者の写真のカスタムデータセットに基づいて微調整され、患者の写真に適した生成能力で生成する。
我々の生存予測モデルは、重要な顔の特徴に頼って、衣服や背景などの外部情報からバイアスを取り除くことができる。
- 参考スコア(独自算出の注目度): 7.751541087374542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: urvival prediction for cancer patients is critical for optimal treatment
selection and patient management. Current patient survival prediction methods
typically extract survival information from patients' clinical record data or
biological and imaging data. In practice, experienced clinicians can have a
preliminary assessment of patients' health status based on patients' observable
physical appearances, which are mainly facial features. However, such
assessment is highly subjective. In this work, the efficacy of objectively
capturing and using prognostic information contained in conventional portrait
photographs using deep learning for survival predication purposes is
investigated for the first time. A pre-trained StyleGAN2 model is fine-tuned on
a custom dataset of our cancer patients' photos to empower its generator with
generative ability suitable for patients' photos. The StyleGAN2 is then used to
embed the photographs to its highly expressive latent space. Utilizing the
state-of-the-art survival analysis models and based on StyleGAN's latent space
photo embeddings, this approach achieved a C-index of 0.677, which is notably
higher than chance and evidencing the prognostic value embedded in simple 2D
facial images. In addition, thanks to StyleGAN's interpretable latent space,
our survival prediction model can be validated for relying on essential facial
features, eliminating any biases from extraneous information like clothing or
background. Moreover, a health attribute is obtained from regression
coefficients, which has important potential value for patient care.
- Abstract(参考訳): がん患者の生存予測は最適な治療選択と患者管理に重要である。
現在の患者生存予測法は、典型的には患者の臨床記録データまたは生物学的および画像データから生存情報を抽出する。
実際に、経験豊富な臨床医は、主に顔の特徴である観察可能な身体的外観に基づいて、患者の健康状態の予備評価を行うことができる。
しかし、この評価は非常に主観的である。
本研究は,従来のポートレート写真に含まれる予測情報を,深層学習を用いて客観的に捉え,活用する効果について初めて検討した。
事前トレーニングされたStyleGAN2モデルは、がん患者の写真のカスタムデータセットに基づいて微調整され、患者の写真に合った生成能力で生成する。
StyleGAN2は、写真を非常に表現力のある潜伏空間に埋め込むために使用される。
最先端のサバイバル分析モデルと、styleganの潜在空間写真埋め込みに基づいて、このアプローチは0.677のc-インデックスを達成し、これは単純な2d顔画像に埋め込まれた予測値よりも顕著に高い。
さらに、StyleGANの解釈可能な潜伏空間のおかげで、我々の生存予測モデルは、重要な顔の特徴に依存し、衣服や背景などの外部情報からのバイアスを排除できる。
さらに、患者のケアに重要な電位値を有する回帰係数から健康属性を求める。
関連論文リスト
- Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - SurvRNC: Learning Ordered Representations for Survival Prediction using Rank-N-Contrast [4.5445892770974154]
Survival Rank-N Contrast (SurvRNC) は、生存時間に基づいて順序付けられた表現を得るための正規化器としての損失関数である。
訓練にSurvRNC法を用いることで,異なる深層生存モデルにおいて高い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-03-15T18:00:11Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - Deterioration Prediction using Time-Series of Three Vital Signs and
Current Clinical Features Amongst COVID-19 Patients [6.1594622252295474]
今後3~24時間で患者が悪化するかどうかを予測できる予後モデルを構築した。
このモデルは、(a)酸素飽和度、(b)心拍数、(c)温度という、通常の三進的なバイタルサインを処理する。
ニューヨーク・ラングーン・ヘルスで37,006人のCOVID-19患者から収集したデータを用いて、モデルを訓練し、評価した。
論文 参考訳(メタデータ) (2022-10-12T02:53:43Z) - Predicting survival of glioblastoma from automatic whole-brain and tumor
segmentation of MR images [1.0179233457605892]
MR画像から自動的に計算され、機械学習モデルに入力され、患者の生存を予測できる新しい画像機能を導入する。
これらの特徴は、周囲の脳構造に腫瘍が引き起こす変形を計測し、患者の脳の様々な構造の形状と健康な人の期待される形状を比較する。
提案する特徴は, 従来の非画像的特徴以上の, 総合的および進歩的生存率の面で, 予後に有意な値を有することを示す。
論文 参考訳(メタデータ) (2021-09-25T10:49:51Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - A Machine Learning Challenge for Prognostic Modelling in Head and Neck
Cancer Using Multi-modal Data [0.10651507097431492]
我々は,頭頸部癌における生存予測の精度向上を目的として,機関的機械学習挑戦を行った。
画像と臨床データを用いて,12種類の提出物を別々に,あるいは組み合わせて比較した。
勝利アプローチは臨床データと腫瘍容積の非線形マルチタスク学習を用い、2年間の生存予測において高い予後精度を達成した。
論文 参考訳(メタデータ) (2021-01-28T11:20:34Z) - Integrative Analysis for COVID-19 Patient Outcome Prediction [53.11258640541513]
我々は、集中治療室入院の必要性を予測するために、人口統計、バイタルサイン、実験室の所見から、肺不透明度の放射能と非画像の特徴を組み合わせる。
また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。
論文 参考訳(メタデータ) (2020-07-20T19:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。