論文の概要: SynPAIN: A Synthetic Dataset of Pain and Non-Pain Facial Expressions
- arxiv url: http://arxiv.org/abs/2507.19673v2
- Date: Fri, 01 Aug 2025 17:06:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.57835
- Title: SynPAIN: A Synthetic Dataset of Pain and Non-Pain Facial Expressions
- Title(参考訳): SynPAIN: 痛みと非痛みの表情の合成データセット
- Authors: Babak Taati, Muhammad Muzammil, Yasamin Zarghami, Abhishek Moturu, Amirhossein Kazerouni, Hailey Reimer, Alex Mihailidis, Thomas Hadjistavropoulos,
- Abstract要約: 既存の痛み検出データセットは、民族的/人種的多様性の制限、プライバシーの制約、高齢者の過小評価に悩まされている。
我々は,10,710個の表情画像を含む大規模合成データセットSynPAINを提案する。
商業的な生成AIツールを用いて、臨床的に有意な痛み表現を伴う人口動態バランスの取れた合成IDを作成しました。
- 参考スコア(独自算出の注目度): 3.0806468055954737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate pain assessment in patients with limited ability to communicate, such as older adults with dementia, represents a critical healthcare challenge. Robust automated systems of pain detection may facilitate such assessments. Existing pain detection datasets, however, suffer from limited ethnic/racial diversity, privacy constraints, and underrepresentation of older adults who are the primary target population for clinical deployment. We present SynPAIN, a large-scale synthetic dataset containing 10,710 facial expression images (5,355 neutral/expressive pairs) across five ethnicities/races, two age groups (young: 20-35, old: 75+), and two genders. Using commercial generative AI tools, we created demographically balanced synthetic identities with clinically meaningful pain expressions. Our validation demonstrates that synthetic pain expressions exhibit expected pain patterns, scoring significantly higher than neutral and non-pain expressions using clinically validated pain assessment tools based on facial action unit analysis. We experimentally demonstrate SynPAIN's utility in identifying algorithmic bias in existing pain detection models. Through comprehensive bias evaluation, we reveal substantial performance disparities across demographic characteristics. These performance disparities were previously undetectable with smaller, less diverse datasets. Furthermore, we demonstrate that age-matched synthetic data augmentation improves pain detection performance on real clinical data, achieving a 7.0% improvement in average precision. SynPAIN addresses critical gaps in pain assessment research by providing the first publicly available, demographically diverse synthetic dataset specifically designed for older adult pain detection, while establishing a framework for measuring and mitigating algorithmic bias. The dataset is available at https://doi.org/10.5683/SP3/WCXMAP
- Abstract(参考訳): 認知症高齢者のようなコミュニケーション能力に乏しい高齢者の正確な痛み評価は、重要な医療課題である。
痛み検出のロバストな自動化システムは、そのような評価を促進する可能性がある。
しかし、既存の痛み検出データセットは、民族的・人種的多様性の制限、プライバシーの制約、および臨床展開の主要なターゲットである高齢者の表現不足に悩まされている。
SynPAINは,5つの民族・人種,2つの年齢グループ(20~35歳,75歳)と2つの性別からなる10,710の表情画像(5,355の中立/表現対)を含む大規模合成データセットである。
商業的な生成AIツールを用いて、臨床的に有意な痛み表現を伴う人口動態バランスの取れた合成IDを作成しました。
以上の結果から, 顔面動作単位分析に基づく痛み評価ツールを用いて, 中性および非痛覚表現よりも有意に高い結果が得られた。
既存の痛み検出モデルにおけるアルゴリズムバイアスの同定におけるSynPAINの有用性を実験的に実証した。
包括的バイアス評価により,人口統計学的特徴の相違が明らかとなった。
これらのパフォーマンス格差は、以前はより小さく、より多様性の低いデータセットで検出できなかった。
さらに, 年齢適合型合成データの拡張により, 実際の臨床データに対する痛み検出性能が向上し, 平均精度が7.0%向上することが実証された。
SynPAINは、アルゴリズムバイアスの測定と緩和のためのフレームワークを確立しながら、高齢者の痛みの検出に特化した、初めて公開され、人口統計学的に多様な合成データセットを提供することによって、痛み評価研究における重要なギャップに対処する。
データセットはhttps://doi.org/10.5683/SP3/WCXMAPで公開されている。
関連論文リスト
- Improving Pain Classification using Spatio-Temporal Deep Learning Approaches with Facial Expressions [0.27309692684728604]
痛み管理と重症度検出は効果的な治療に不可欠である。
伝統的な自己申告法は主観的であり、非言語的個人には適さない。
表情を用いた痛みの自動検出について検討する。
論文 参考訳(メタデータ) (2025-01-12T11:54:46Z) - SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data [44.304022773272415]
ハイレベルなテキスト記述に基づく表情画像データの合成のための新しいフレームワークであるSynFERを紹介する。
本稿では,表情ラベルの修正を支援するために,生成プロセスと擬似ラベル生成手法を提案する。
提案手法は,AffectNetトレーニングセットサイズに相当する合成データのみを用いてトレーニングを行う場合,AffectNetの67.23%の分類精度を実現する。
論文 参考訳(メタデータ) (2024-10-13T14:58:21Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - Pain Analysis using Adaptive Hierarchical Spatiotemporal Dynamic Imaging [16.146223377936035]
本稿では,適応時間動画像(Adaptive temporal Dynamic Image, AHDI)技術を紹介する。
AHDIは、顔ビデオの深い変化を特異なRGB画像にエンコードし、ビデオ表現のためのより単純な2Dモデルを実現する。
この枠組み内では、一般化された顔表現を導出するために残差ネットワークを用いる。
これらの表現は、痛みの強さを推定し、本物の痛み表現とシミュレートされた痛み表現を区別する2つのタスクに最適化される。
論文 参考訳(メタデータ) (2023-12-12T01:23:05Z) - Wearable-based Fair and Accurate Pain Assessment Using Multi-Attribute Fairness Loss in Convolutional Neural Networks [4.451479907610764]
臨床的な痛み評価におけるAIの採用は、パーソナライゼーションや公平性といった課題によって妨げられている。
機械学習やディープラーニングを含む多くのAIモデルは偏見を示し、性別や民族に基づいて特定のグループを識別する。
本稿では、データ中の保護属性を考慮に入れたマルチ属性フェアネス損失(MAFL)に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - Pain level and pain-related behaviour classification using GRU-based
sparsely-connected RNNs [61.080598804629375]
慢性的な痛みを持つ人は、特定の身体の動きを無意識に適応させ、怪我や追加の痛みから身を守る。
この相関関係を分析するための専用のベンチマークデータベースが存在しないため、日々の行動に影響を及ぼす可能性のある特定の状況の1つを検討した。
我々は、複数のオートエンコーダを組み込んだゲートリカレントユニット(GRU)と疎結合なリカレントニューラルネットワーク(s-RNN)のアンサンブルを提案した。
本手法は,痛みレベルと痛み関連行動の両方の分類において,最先端のアプローチよりも優れていることを示すいくつかの実験を行った。
論文 参考訳(メタデータ) (2022-12-20T12:56:28Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。