論文の概要: Automated Assessment of Aesthetic Outcomes in Facial Plastic Surgery
- arxiv url: http://arxiv.org/abs/2508.13363v1
- Date: Mon, 18 Aug 2025 21:15:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.725461
- Title: Automated Assessment of Aesthetic Outcomes in Facial Plastic Surgery
- Title(参考訳): 顔面プラスティック手術における審美的アウトカムの自動評価
- Authors: Pegah Varghaei, Kiran Abraham-Aggarwal, Manoj T. Abraham, Arun Ross,
- Abstract要約: 正面写真を用いた顔用プラスチック手術の美的効果を定量化するための,スケーラブルで解釈可能なコンピュータビジョンフレームワークを提案する。
我々のパイプラインは、自動的ランドマーク検出、幾何学的顔対称性計算、深層学習に基づく年齢推定、鼻形態解析を活用している。
- 参考スコア(独自算出の注目度): 8.879879495269005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a scalable, interpretable computer-vision framework for quantifying aesthetic outcomes of facial plastic surgery using frontal photographs. Our pipeline leverages automated landmark detection, geometric facial symmetry computation, deep-learning-based age estimation, and nasal morphology analysis. To perform this study, we first assemble the largest curated dataset of paired pre- and post-operative facial images to date, encompassing 7,160 photographs from 1,259 patients. This dataset includes a dedicated rhinoplasty-only subset consisting of 732 images from 366 patients, 96.2% of whom showed improvement in at least one of the three nasal measurements with statistically significant group-level change. Among these patients, the greatest statistically significant improvements (p < 0.001) occurred in the alar width to face width ratio (77.0%), nose length to face height ratio (41.5%), and alar width to intercanthal ratio (39.3%). Among the broader frontal-view cohort, comprising 989 rigorously filtered subjects, 71.3% exhibited significant enhancements in global facial symmetry or perceived age (p < 0.01). Importantly, our analysis shows that patient identity remains consistent post-operatively, with True Match Rates of 99.5% and 99.6% at a False Match Rate of 0.01% for the rhinoplasty-specific and general patient cohorts, respectively. Additionally, we analyze inter-practitioner variability in improvement rates. By providing reproducible, quantitative benchmarks and a novel dataset, our pipeline facilitates data-driven surgical planning, patient counseling, and objective outcome evaluation across practices.
- Abstract(参考訳): 正面写真を用いた顔用プラスチック手術の美的効果を定量化するための,スケーラブルで解釈可能なコンピュータビジョンフレームワークを提案する。
我々のパイプラインは、自動的ランドマーク検出、幾何学的顔対称性計算、深層学習に基づく年齢推定、鼻形態解析を活用している。
本研究は,1,259例の7,160枚の写真を含む,これまでで最大規模の顔画像と術後顔画像の収集を行った。
このデータセットは、366人の患者から772枚の画像で構成され、96.2%は統計的に有意なグループレベルの変化を伴う3つの鼻径測定のうちの少なくとも1つの改善を示した。
これらのうち、最も統計学的に有意な改善(p < 0.001)は、大口幅から顔の幅比(77.0%)、鼻長から顔の高さ比(41.5%)、大口幅から頭間比(39.3%)であった。
989名の厳選された被験者からなる広い正面視コホートのうち、71.3%はグローバルな顔対称性や知覚年齢(p<0。
本分析では, 術後の患者の同一性は持続的に維持され, 正のマッチング率99.5%, 正のマッチング率99.6%, 偽のマッチング率0.01%, 一般の患者コホートでは0.01%であった。
さらに,改善率の実践者間変動を解析した。
再現可能で定量的なベンチマークと新しいデータセットを提供することで、我々のパイプラインは、データ駆動型外科的計画、患者カウンセリング、実践全体にわたる客観的な結果評価を促進する。
関連論文リスト
- Explainable Anatomy-Guided AI for Prostate MRI: Foundation Models and In Silico Clinical Trials for Virtual Biopsy-based Risk Assessment [3.5408411348831232]
MRIによる前立腺癌(PCa)のリスク階層化のための,完全に自動化された,解剖学的に指導されたディープラーニングパイプラインを提案する。
パイプラインは、前立腺とそのゾーンを軸方向のT2強調MRI上にセグメント化するためのnnU-Netモジュール、オプションの解剖学的先行と臨床データで3Dパッチに微調整されたDiceedPT Swin Transformer基盤モデルに基づく分類モジュール、決定駆動画像領域をローカライズする反ファクトなヒートマップを生成するVAE-GANフレームワークの3つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2025-05-23T14:40:09Z) - Segmentation of Mental Foramen in Orthopantomographs: A Deep Learning Approach [1.9193578733126382]
本研究の目的は, 歯科医療における歯科処置の促進, 患者ケアの増大, 医療効率の向上である。
本研究では、深層学習法を用いて、パノラマ画像からメンタルフォアメンを正確に検出し、分類した。
論文 参考訳(メタデータ) (2024-08-08T21:40:06Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Incorporating Anatomical Awareness for Enhanced Generalizability and Progression Prediction in Deep Learning-Based Radiographic Sacroiliitis Detection [0.8248058061511542]
本研究の目的は, 深層学習モデルに解剖学的認識を取り入れることで, 一般化性を高め, 疾患進行の予測を可能にするかを検討することである。
モデルの性能は, 受信機動作特性曲線(AUC)下の領域, 精度, 感度, 特異性を用いて比較した。
論文 参考訳(メタデータ) (2024-05-12T20:02:25Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Automatic and explainable grading of meningiomas from histopathology
images [4.72477127235866]
スライド画像全体から全自動髄膜腫を鑑別する3つのアプローチを提示・比較した。
すべてのアプローチはWHOグレードと高い相関関係を持つ。
論文 参考訳(メタデータ) (2021-07-19T13:05:51Z) - Integrative Analysis for COVID-19 Patient Outcome Prediction [53.11258640541513]
我々は、集中治療室入院の必要性を予測するために、人口統計、バイタルサイン、実験室の所見から、肺不透明度の放射能と非画像の特徴を組み合わせる。
また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。
論文 参考訳(メタデータ) (2020-07-20T19:08:50Z) - Joint Prediction and Time Estimation of COVID-19 Developing Severe
Symptoms using Chest CT Scan [49.209225484926634]
術後に重篤な症状を発症するかどうかを判定するための共同分類法と回帰法を提案する。
提案手法は,各試料の重量を考慮し,外乱の影響を低減し,不均衡な分類の問題を検討する。
提案手法では, 重症症例の予測精度76.97%, 相関係数0.524, 変換時間0.55日差が得られた。
論文 参考訳(メタデータ) (2020-05-07T12:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。