論文の概要: PainDiffusion: Can robot express pain?
- arxiv url: http://arxiv.org/abs/2409.11635v1
- Date: Wed, 18 Sep 2024 01:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:29:58.475375
- Title: PainDiffusion: Can robot express pain?
- Title(参考訳): 痛みの拡散:ロボットは痛みを表現できるか?
- Authors: Quang Tien Dam, Tri Tung Nguyen Nguyen, Dinh Tuan Tran, Joo-Ho Lee,
- Abstract要約: 痛みは、より直感的でユーザフレンドリなコミュニケーション方法です。
これまでのほとんどの手法は、痛み表現の分類や認識に重点を置いてきた。
痛み刺激に反応して表情を生成するモデルであるPainDiffusionを紹介する。
- 参考スコア(独自算出の注目度): 1.2974519529978974
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pain is a more intuitive and user-friendly way of communicating problems, making it especially useful in rehabilitation nurse training robots. While most previous methods have focused on classifying or recognizing pain expressions, these approaches often result in unnatural, jiggling robot faces. We introduce PainDiffusion, a model that generates facial expressions in response to pain stimuli, with controllable pain expressiveness and emotion status. PainDiffusion leverages diffusion forcing to roll out predictions over arbitrary lengths using a conditioned temporal U-Net. It operates as a latent diffusion model within EMOCA's facial expression latent space, ensuring a compact data representation and quick rendering time. For training data, we process the BioVid Heatpain Database, extracting expression codes and subject identity configurations. We also propose a novel set of metrics to evaluate pain expressions, focusing on expressiveness, diversity, and the appropriateness of model-generated outputs. Finally, we demonstrate that PainDiffusion outperforms the autoregressive method, both qualitatively and quantitatively. Code, videos, and further analysis are available at: \href{https://damtien444.github.io/paindf/}{https://damtien444.github.io/paindf/}.
- Abstract(参考訳): 痛みは、より直感的でユーザーフレンドリーなコミュニケーション方法であり、リハビリテーション看護師のトレーニングロボットに特に有用である。
これまでのほとんどの方法は痛み表現の分類や認識に焦点を合わせてきたが、これらのアプローチはしばしば不自然なジグリングロボットの顔をもたらす。
痛みの刺激に反応して表情を生成するモデルであるPainDiffusionを導入し、痛みの表現力と感情状態を制御する。
PainDiffusionは拡散強制を利用して、条件付き時間的U-Netを用いて任意の長さで予測をロールアウトする。
EMOCAの表情潜在空間内の潜伏拡散モデルとして機能し、コンパクトなデータ表現と高速なレンダリング時間を保証する。
トレーニングデータには、BioVid Heatpain Databaseを処理し、表現コードと対象のアイデンティティ設定を抽出する。
また、痛みの表現を評価するための新しい指標セットを提案し、表現性、多様性、およびモデル生成出力の適切性に着目した。
最後に,PainDiffusionが定性的かつ定量的に自己回帰法より優れていることを示す。
コード、ビデオ、さらに分析は以下の通りである。 \href{https://damtien444.github.io/paindf/}{https://damtien444.github.io/paindf/}。
関連論文リスト
- Transformer with Leveraged Masked Autoencoder for video-based Pain Assessment [11.016004057765185]
我々は、トランスフォーマーに基づくディープラーニングモデルにおいて、顔画像解析を用いて、痛み認識を強化する。
強力なMasked AutoencoderとTransformersベースの分類器を組み合わせることで,表現とマイクロ表現の両方を通じて痛みレベルインジケータを効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-09-08T13:14:03Z) - Faces of Experimental Pain: Transferability of Deep Learned Heat Pain Features to Electrical Pain [7.205834345343974]
本研究では,ある種類の実験的痛みに対する深層学習の特徴表現が他の痛みに伝達できるかどうかを検討する。
チャレンジデータセットには、電気的痛みの強度が異なる65人の参加者から収集されたデータが含まれている。
提案手法では,BioVidデータセットに基づいてトレーニングされた既存の熱痛畳み込みニューラルネットワーク(CNN)を特徴抽出器として活用する。
論文 参考訳(メタデータ) (2024-06-17T17:51:54Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Pain Analysis using Adaptive Hierarchical Spatiotemporal Dynamic Imaging [16.146223377936035]
本稿では,適応時間動画像(Adaptive temporal Dynamic Image, AHDI)技術を紹介する。
AHDIは、顔ビデオの深い変化を特異なRGB画像にエンコードし、ビデオ表現のためのより単純な2Dモデルを実現する。
この枠組み内では、一般化された顔表現を導出するために残差ネットワークを用いる。
これらの表現は、痛みの強さを推定し、本物の痛み表現とシミュレートされた痛み表現を区別する2つのタスクに最適化される。
論文 参考訳(メタデータ) (2023-12-12T01:23:05Z) - Reverse Stable Diffusion: What prompt was used to generate this image? [73.10116197883303]
本研究では, 生成拡散モデルにより生成された画像に対して, 迅速な埋め込みを予測できる課題について検討する。
本稿では,複数ラベルの語彙分類を目的とする共同学習フレームワークを提案する。
我々はDiffusionDBデータセットの実験を行い、安定拡散によって生成された画像からテキストプロンプトを予測する。
論文 参考訳(メタデータ) (2023-08-02T23:39:29Z) - DiffusionRet: Generative Text-Video Retrieval with Diffusion Model [56.03464169048182]
既存のテキストビデオ検索ソリューションは、条件付き可能性、すなわちp(candidates|query)の最大化に焦点を当てている。
我々は、このタスクを生成的視点から創造的に取り組み、テキストとビデオの相関関係を共同確率p(candidates,query)としてモデル化する。
これは拡散に基づくテキストビデオ検索フレームワーク(DiffusionRet)によって実現され、ノイズから徐々に関節分布を生成するプロセスとして検索タスクをモデル化する。
論文 参考訳(メタデータ) (2023-03-17T10:07:19Z) - Transformer Encoder with Multiscale Deep Learning for Pain
Classification Using Physiological Signals [0.0]
痛みは主観的な感覚駆動体験である。
痛みの強さを測定する伝統的な技術は偏見に影響を受けやすく、場合によっては信頼できない。
そこで我々は,生理的シグナルを入力として,痛み強度を分類する新しいトランスフォーマーエンコーダディープラーニングフレームワークPainAttnNetを開発した。
論文 参考訳(メタデータ) (2023-03-13T04:21:33Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Pain Intensity Estimation from Mobile Video Using 2D and 3D Facial
Keypoints [1.6402428190800593]
術後痛の管理は外科的治療の成功に不可欠である。
痛み管理の課題の1つは、患者の痛みレベルを正確に評価することである。
本稿では,術後患者の2Dおよび3D顔のキーポイントを分析し,痛み強度を推定するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-17T00:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。