論文の概要: Pain in 3D: Generating Controllable Synthetic Faces for Automated Pain Assessment
- arxiv url: http://arxiv.org/abs/2509.16727v1
- Date: Sat, 20 Sep 2025 15:41:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.947265
- Title: Pain in 3D: Generating Controllable Synthetic Faces for Automated Pain Assessment
- Title(参考訳): 3Dの痛み:自動痛み評価のための制御可能な合成顔の生成
- Authors: Xin Lei Lin, Soroush Mehraban, Abhishek Moturu, Babak Taati,
- Abstract要約: 痛みの自動評価を目的とした大規模合成データセットである3DPainを提案する。
我々の3段階のフレームワークは多様な3Dメッシュを生成し、拡散モデルでそれらをテクスチャ化し、AU駆動の顔リグを適用します。
このデータセットは、25,000の痛み発現熱マップに82,500のサンプルと、年齢、性別、民族によってバランスのとれた2500の合成IDで構成されている。
- 参考スコア(独自算出の注目度): 1.7289359743609742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated pain assessment from facial expressions is crucial for non-communicative patients, such as those with dementia. Progress has been limited by two challenges: (i) existing datasets exhibit severe demographic and label imbalance due to ethical constraints, and (ii) current generative models cannot precisely control facial action units (AUs), facial structure, or clinically validated pain levels. We present 3DPain, a large-scale synthetic dataset specifically designed for automated pain assessment, featuring unprecedented annotation richness and demographic diversity. Our three-stage framework generates diverse 3D meshes, textures them with diffusion models, and applies AU-driven face rigging to synthesize multi-view faces with paired neutral and pain images, AU configurations, PSPI scores, and the first dataset-level annotations of pain-region heatmaps. The dataset comprises 82,500 samples across 25,000 pain expression heatmaps and 2,500 synthetic identities balanced by age, gender, and ethnicity. We further introduce ViTPain, a Vision Transformer based cross-modal distillation framework in which a heatmap-trained teacher guides a student trained on RGB images, enhancing accuracy, interpretability, and clinical reliability. Together, 3DPain and ViTPain establish a controllable, diverse, and clinically grounded foundation for generalizable automated pain assessment.
- Abstract(参考訳): 認知症などの非コミュニケーション患者には、表情から自動的に痛みを評価することが不可欠である。
進歩は2つの課題によって制限されている。
一 既存のデータセットは、倫理上の制約により、厳格な人口統計とラベルの不均衡を示す。
(II)現在の生成モデルでは、顔面動作単位(AU)、顔面構造、または臨床的に検証された痛みレベルを正確に制御することはできない。
3DPainは, 痛みの自動評価に特化して設計された大規模合成データセットであり, 前代未聞のアノテーション豊かさと人口統計学的多様性を特徴とする。
我々の3段階のフレームワークは、多様な3Dメッシュを生成し、拡散モデルでテクスチャ化し、AU駆動の顔リグを適用して、ペアの中立面と痛み像、AU構成、PSPIスコア、および痛み領域のヒートマップの最初のデータセットレベルのアノテーションを合成する。
このデータセットは、25,000の痛み発現熱マップに82,500のサンプルと、年齢、性別、民族によってバランスのとれた2500の合成IDで構成されている。
さらに,ビジョントランスフォーマーを用いたクロスモーダル蒸留フレームワークであるViTPainについても紹介する。
3DPain と ViTPain は共に、汎用的な自動鎮痛評価のためのコントロール可能な、多種多様な、臨床基礎を築き上げている。
関連論文リスト
- MRN: Harnessing 2D Vision Foundation Models for Diagnosing Parkinson's Disease with Limited 3D MR Data [0.6183104361749774]
現在の臨床実践は、しばしばQSMおよびNM-MRI画像の診断バイオマーカーに依存している。
2次元視覚基礎モデル(VFM)を活用することで,これらの課題に対処する。
提案手法はMICCAI 2025 PDCADxFoundationチャレンジにおいて,300個のQSMとNM-MRIスキャンのみを用いたデータセットで86.4%の精度で達成された。
論文 参考訳(メタデータ) (2025-09-22T10:59:27Z) - SynPAIN: A Synthetic Dataset of Pain and Non-Pain Facial Expressions [3.0806468055954737]
既存の痛み検出データセットは、民族的/人種的多様性の制限、プライバシーの制約、高齢者の過小評価に悩まされている。
我々は,10,710個の表情画像を含む大規模合成データセットSynPAINを提案する。
商業的な生成AIツールを用いて、臨床的に有意な痛み表現を伴う人口動態バランスの取れた合成IDを作成しました。
論文 参考訳(メタデータ) (2025-07-25T20:54:04Z) - Adaptable Cardiovascular Disease Risk Prediction from Heterogeneous Data using Large Language Models [70.64969663547703]
AdaCVDは、英国バイオバンクから50万人以上の参加者を対象に、大規模な言語モデルに基づいて構築された適応可能なCVDリスク予測フレームワークである。
包括的かつ可変的な患者情報を柔軟に取り込み、構造化データと非構造化テキストの両方をシームレスに統合し、最小限の追加データを使用して新規患者の集団に迅速に適応する。
論文 参考訳(メタデータ) (2025-05-30T14:42:02Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - Pain Analysis using Adaptive Hierarchical Spatiotemporal Dynamic Imaging [16.146223377936035]
本稿では,適応時間動画像(Adaptive temporal Dynamic Image, AHDI)技術を紹介する。
AHDIは、顔ビデオの深い変化を特異なRGB画像にエンコードし、ビデオ表現のためのより単純な2Dモデルを実現する。
この枠組み内では、一般化された顔表現を導出するために残差ネットワークを用いる。
これらの表現は、痛みの強さを推定し、本物の痛み表現とシミュレートされた痛み表現を区別する2つのタスクに最適化される。
論文 参考訳(メタデータ) (2023-12-12T01:23:05Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。