論文の概要: PainDiffusion: Learning to Express Pain
- arxiv url: http://arxiv.org/abs/2409.11635v2
- Date: Tue, 04 Mar 2025 13:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:36.89082
- Title: PainDiffusion: Learning to Express Pain
- Title(参考訳): PainDiffusion: 痛みの表現を学ぶ
- Authors: Quang Tien Dam, Tri Tung Nguyen Nguyen, Yuki Endo, Dinh Tuan Tran, Joo-Ho Lee,
- Abstract要約: 自然主義的な顔面痛表情を合成する生成モデルPainDiffusionを紹介する。
PainDiffusionは連続的な潜伏空間で動作し、より滑らかで自然な顔の動きを保証する。
本手法は、痛み表現性や感情などの本質的な特徴を取り入れ、パーソナライズされた、制御可能な痛み表現合成を可能にする。
- 参考スコア(独自算出の注目度): 1.8618013369281985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate pain expression synthesis is essential for improving clinical training and human-robot interaction. Current Robotic Patient Simulators (RPSs) lack realistic pain facial expressions, limiting their effectiveness in medical training. In this work, we introduce PainDiffusion, a generative model that synthesizes naturalistic facial pain expressions. Unlike traditional heuristic or autoregressive methods, PainDiffusion operates in a continuous latent space, ensuring smoother and more natural facial motion while supporting indefinite-length generation via diffusion forcing. Our approach incorporates intrinsic characteristics such as pain expressiveness and emotion, allowing for personalized and controllable pain expression synthesis. We train and evaluate our model using the BioVid HeatPain Database. Additionally, we integrate PainDiffusion into a robotic system to assess its applicability in real-time rehabilitation exercises. Qualitative studies with clinicians reveal that PainDiffusion produces realistic pain expressions, with a 31.2% (std 4.8%) preference rate against ground-truth recordings. Our results suggest that PainDiffusion can serve as a viable alternative to real patients in clinical training and simulation, bridging the gap between synthetic and naturalistic pain expression. Code and videos are available at: https://damtien444.github.io/paindf/
- Abstract(参考訳): 正確な痛み発現合成は臨床訓練とヒトとロボットの相互作用を改善するために不可欠である。
現在のロボット患者シミュレータ(RPS)は、現実的な痛みの表情を欠き、医療訓練におけるその効果を制限している。
本研究では,自然主義的な顔面痛表情を合成する生成モデルPainDiffusionを紹介する。
従来のヒューリスティックな方法や自己回帰的な方法とは異なり、PainDiffusionは連続的な潜伏空間で動作し、より滑らかで自然な顔の動きを保ちながら、拡散強制によって不定長の生成をサポートする。
本手法は、痛み表現性や感情などの本質的な特徴を取り入れ、パーソナライズされた、制御可能な痛み表現合成を可能にする。
BioVid HeatPain Databaseを使ってモデルをトレーニングし、評価する。
さらに、PainDiffusionをロボットシステムに統合し、リアルタイムリハビリテーション演習への適用性を評価する。
臨床医との質的研究により、PainDiffusion は31.2% (std 4.8%) の嗜好率で現実的な痛みの表現を生み出していることが明らかになった。
以上の結果から,PainDiffusionは臨床訓練やシミュレーションにおいて実際の患者に対して有効な代替手段となり得ることが示唆された。
コードとビデオは、https://damtien444.github.io/paindf/で入手できる。
関連論文リスト
- EmoDiffusion: Enhancing Emotional 3D Facial Animation with Latent Diffusion Models [66.67979602235015]
エモディフュージョン(EmoDiffusion)は、音声中の様々な感情をアンタングルしてリッチな3次元の表情を生成する新しいアプローチである。
iPhone上のLiveLinkFaceを使ってアニメーション専門家の指導の下で表情をキャプチャする。
論文 参考訳(メタデータ) (2025-03-14T02:54:22Z) - Improving Pain Classification using Spatio-Temporal Deep Learning Approaches with Facial Expressions [0.27309692684728604]
痛み管理と重症度検出は効果的な治療に不可欠である。
伝統的な自己申告法は主観的であり、非言語的個人には適さない。
表情を用いた痛みの自動検出について検討する。
論文 参考訳(メタデータ) (2025-01-12T11:54:46Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Transformer with Leveraged Masked Autoencoder for video-based Pain Assessment [11.016004057765185]
我々は、トランスフォーマーに基づくディープラーニングモデルにおいて、顔画像解析を用いて、痛み認識を強化する。
強力なMasked AutoencoderとTransformersベースの分類器を組み合わせることで,表現とマイクロ表現の両方を通じて痛みレベルインジケータを効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-09-08T13:14:03Z) - Faces of Experimental Pain: Transferability of Deep Learned Heat Pain Features to Electrical Pain [7.205834345343974]
本研究では,ある種類の実験的痛みに対する深層学習の特徴表現が他の痛みに伝達できるかどうかを検討する。
チャレンジデータセットには、電気的痛みの強度が異なる65人の参加者から収集されたデータが含まれている。
提案手法では,BioVidデータセットに基づいてトレーニングされた既存の熱痛畳み込みニューラルネットワーク(CNN)を特徴抽出器として活用する。
論文 参考訳(メタデータ) (2024-06-17T17:51:54Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - Pain Analysis using Adaptive Hierarchical Spatiotemporal Dynamic Imaging [16.146223377936035]
本稿では,適応時間動画像(Adaptive temporal Dynamic Image, AHDI)技術を紹介する。
AHDIは、顔ビデオの深い変化を特異なRGB画像にエンコードし、ビデオ表現のためのより単純な2Dモデルを実現する。
この枠組み内では、一般化された顔表現を導出するために残差ネットワークを用いる。
これらの表現は、痛みの強さを推定し、本物の痛み表現とシミュレートされた痛み表現を区別する2つのタスクに最適化される。
論文 参考訳(メタデータ) (2023-12-12T01:23:05Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Reverse Stable Diffusion: What prompt was used to generate this image? [73.10116197883303]
本研究では, 生成拡散モデルにより生成された画像に対して, 迅速な埋め込みを予測できる課題について検討する。
本稿では,複数ラベルの語彙分類を目的とする共同学習フレームワークを提案する。
我々はDiffusionDBデータセットの実験を行い、安定拡散によって生成された画像からテキストプロンプトを予測する。
論文 参考訳(メタデータ) (2023-08-02T23:39:29Z) - Efficient Meshy Neural Fields for Animatable Human Avatars [87.68529918184494]
高忠実でアニマブルな人間のアバターをビデオから効果的にデジタル化することは、挑戦的で活発な研究課題である。
最近のレンダリングベースのニューラル表現は、フレンドリーなユーザビリティと光変化の再現性を備えた、人間のデジタル化の新しい方法を開く。
アニマタブルなヒトアバターを再構築するために,メッシュニューラルネットワークを効果的に学習する手法であるEMAを提案する。
論文 参考訳(メタデータ) (2023-03-23T00:15:34Z) - DiffusionRet: Generative Text-Video Retrieval with Diffusion Model [56.03464169048182]
既存のテキストビデオ検索ソリューションは、条件付き可能性、すなわちp(candidates|query)の最大化に焦点を当てている。
我々は、このタスクを生成的視点から創造的に取り組み、テキストとビデオの相関関係を共同確率p(candidates,query)としてモデル化する。
これは拡散に基づくテキストビデオ検索フレームワーク(DiffusionRet)によって実現され、ノイズから徐々に関節分布を生成するプロセスとして検索タスクをモデル化する。
論文 参考訳(メタデータ) (2023-03-17T10:07:19Z) - Transformer Encoder with Multiscale Deep Learning for Pain
Classification Using Physiological Signals [0.0]
痛みは主観的な感覚駆動体験である。
痛みの強さを測定する伝統的な技術は偏見に影響を受けやすく、場合によっては信頼できない。
そこで我々は,生理的シグナルを入力として,痛み強度を分類する新しいトランスフォーマーエンコーダディープラーニングフレームワークPainAttnNetを開発した。
論文 参考訳(メタデータ) (2023-03-13T04:21:33Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Pain Intensity Estimation from Mobile Video Using 2D and 3D Facial
Keypoints [1.6402428190800593]
術後痛の管理は外科的治療の成功に不可欠である。
痛み管理の課題の1つは、患者の痛みレベルを正確に評価することである。
本稿では,術後患者の2Dおよび3D顔のキーポイントを分析し,痛み強度を推定するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-17T00:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。