論文の概要: Can we truly transfer an actor's genuine happiness to avatars? An
investigation into virtual, real, posed and spontaneous faces
- arxiv url: http://arxiv.org/abs/2312.02128v1
- Date: Mon, 4 Dec 2023 18:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 14:06:23.119687
- Title: Can we truly transfer an actor's genuine happiness to avatars? An
investigation into virtual, real, posed and spontaneous faces
- Title(参考訳): 私たちは本当に俳優の本当の幸せをアバターに転送できますか。
仮想的,現実的,ポーズ的,自発的顔の検討
- Authors: Vitor Miguel Xavier Peres, Greice Pinho Dal Molin and Soraia Raupp
Musse
- Abstract要約: 本研究の目的は、実際の人間の顔、ポーズ、自発性、仮想人間の顔のデータセットにおいて、Ekmanのアクションユニットを評価することである。
また,SheHulkやGeniusといった特定の映画キャラクタを用いたケーススタディも行った。
この調査は、実際の人間でもバーチャル人間でも、教育、健康、エンターテイメント、ゲーム、セキュリティ、さらには法的な問題でも、いくつかの分野の知識に役立つ。
- 参考スコア(独自算出の注目度): 0.7182245711235297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A look is worth a thousand words is a popular phrase. And why is a simple
look enough to portray our feelings about something or someone? Behind this
question are the theoretical foundations of the field of psychology regarding
social cognition and the studies of psychologist Paul Ekman. Facial
expressions, as a form of non-verbal communication, are the primary way to
transmit emotions between human beings. The set of movements and expressions of
facial muscles that convey some emotional state of the individual to their
observers are targets of studies in many areas. Our research aims to evaluate
Ekman's action units in datasets of real human faces, posed and spontaneous,
and virtual human faces resulting from transferring real faces into Computer
Graphics faces. In addition, we also conducted a case study with specific movie
characters, such as SheHulk and Genius. We intend to find differences and
similarities in facial expressions between real and CG datasets, posed and
spontaneous faces, and also to consider the actors' genders in the videos. This
investigation can help several areas of knowledge, whether using real or
virtual human beings, in education, health, entertainment, games, security, and
even legal matters. Our results indicate that AU intensities are greater for
posed than spontaneous datasets, regardless of gender. Furthermore, there is a
smoothing of intensity up to 80 percent for AU6 and 45 percent for AU12 when a
real face is transformed into CG.
- Abstract(参考訳): 見た目は千語の価値がありますが、人気のあるフレーズです。
なぜ単純な表情で何かや誰かに対する私たちの感情を表現できるのでしょうか?
この疑問の背後には、社会認知に関する心理学の分野と心理学者ポール・エクマンの研究の理論的基礎がある。
非言語コミュニケーションの形式としての表情は、人間間で感情を伝達する主要な手段である。
人の感情状態を観察者に伝える顔の筋肉の動きと表情は、多くの分野で研究の対象となっている。
本研究は,実際の顔,ポーズ,自発的,仮想的な顔のデータセットにおけるekmanのアクションユニットを評価することを目的としている。
また,SheHulkやGeniusといった特定の映画キャラクターを用いたケーススタディも行った。
現実とcgのデータセット,ポーズと自発的な顔の表情の違いや類似性を見いだし,映像中の俳優の性別について考察する。
この調査は、実際の人間でもバーチャル人間でも、教育、健康、エンターテイメント、ゲーム、セキュリティ、さらには法的問題でも、いくつかの分野の知識に役立つ。
以上の結果から,AU強度は,性別によらず自発性データセットよりも大きいことが示唆された。
さらに、実際の顔がcgに変換されると、au6は最大80%、au12は45%の強度が滑らかになる。
関連論文リスト
- EmoFace: Audio-driven Emotional 3D Face Animation [3.573880705052592]
EmoFaceは、鮮やかな感情的ダイナミクスを備えた顔アニメーションを作成するための、新しいオーディオ駆動の方法論である。
提案手法では,複数の感情で表情を生成でき,ランダムだが自然な点滅や眼球運動を生成できる。
提案手法は、ビデオゲームでプレイ不可能なキャラクターの対話アニメーションを作成し、バーチャルリアリティ環境でアバターを駆動するのに有効である。
論文 参考訳(メタデータ) (2024-07-17T11:32:16Z) - Emotion Recognition for Challenged People Facial Appearance in Social
using Neural Network [0.0]
CNNでは、取得した画像を異なる感情カテゴリに分類するために顔表現が使用される。
本稿では,画像による表情の認識と啓蒙の不変性について提案する。
論文 参考訳(メタデータ) (2023-05-11T14:38:27Z) - Imitator: Personalized Speech-driven 3D Facial Animation [63.57811510502906]
State-of-the-artメソッドは、ターゲットアクターの顔トポロジを変形させ、ターゲットアクターのアイデンティティ固有の話し方や顔の慣用性を考慮せずに入力オーディオを同期させる。
本稿では,音声による表情合成手法であるImitatorについて述べる。
提案手法は,ターゲットアクターの発話スタイルを保ちながら,入力音声から時間的コヒーレントな表情を生成する。
論文 参考訳(メタデータ) (2022-12-30T19:00:02Z) - Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection [0.0]
顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
論文 参考訳(メタデータ) (2022-11-09T09:53:48Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Neural Emotion Director: Speech-preserving semantic control of facial
expressions in "in-the-wild" videos [31.746152261362777]
In-the-wild」ビデオにおいて,アクターの感情状態をリアルに操作するための新しい深層学習手法を提案する。
提案手法は,頭部のポーズや表情から顔のアイデンティティを確実に切り離すことのできる,入力シーンにおけるアクターのパラメトリックな3次元顔表現に基づく。
次に、新しいディープドメイン翻訳フレームワークを使用し、顔の表情を一貫した、そして妥当な方法で変更し、そのダイナミクスを考慮に入れます。
論文 参考訳(メタデータ) (2021-12-01T15:55:04Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Audio- and Gaze-driven Facial Animation of Codec Avatars [149.0094713268313]
音声および/またはアイトラッキングを用いて,コーデックアバターをリアルタイムにアニメーション化するための最初のアプローチについて述べる。
私たちのゴールは、重要な社会的シグナルを示す個人間の表現力のある会話を表示することです。
論文 参考訳(メタデータ) (2020-08-11T22:28:48Z) - Audio-driven Talking Face Video Generation with Learning-based
Personalized Head Pose [67.31838207805573]
本稿では、音源者の音声信号Aと対象者の短いビデオVを入力とするディープニューラルネットワークモデルを提案する。
我々は、パーソナライズされた頭部ポーズで合成された高品質な会話顔映像を出力する。
提案手法は,最先端の手法よりも,頭部運動効果を識別し,高品質な会話顔ビデオを生成する。
論文 参考訳(メタデータ) (2020-02-24T10:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。