論文の概要: Personality Perception in Human Videos Altered by Motion Transfer
Networks
- arxiv url: http://arxiv.org/abs/2401.14733v1
- Date: Fri, 26 Jan 2024 09:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:25:24.142084
- Title: Personality Perception in Human Videos Altered by Motion Transfer
Networks
- Title(参考訳): 動き伝達ネットワークによるヒトビデオのパーソナリティ知覚の変化
- Authors: Ayda Yurto\u{g}lu, Sinan Sonlu, Yal{\i}m Do\u{g}an, U\u{g}ur
G\"ud\"ukbay
- Abstract要約: 本研究は、移動移動ネットワークによって変化するショートビデオの知覚的パーソナリティに対する動きと外観の影響を解析する。
本稿では,Five-Factorモデルの高,中立,低特性を最もよく表すサンプルを決定するために,ユーザスタディを用いた会議ビデオクリップに個人性をラベル付けする。
我々は、選択したサンプルをソースとして利用し、入力を駆動することで、薄膜スプライン運動モデルを用いてこれらのビデオを変更する。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful portrayal of personality in digital characters improves
communication and immersion. Current research focuses on expressing personality
through modifying animations using heuristic rules or data-driven models. While
studies suggest motion style highly influences the apparent personality, the
role of appearance can be similarly essential. This work analyzes the influence
of movement and appearance on the perceived personality of short videos altered
by motion transfer networks. We label the personalities in conference video
clips with a user study to determine the samples that best represent the
Five-Factor model's high, neutral, and low traits. We alter these videos using
the Thin-Plate Spline Motion Model, utilizing the selected samples as the
source and driving inputs. We follow five different cases to study the
influence of motion and appearance on personality perception. Our comparative
study reveals that motion and appearance influence different factors: motion
strongly affects perceived extraversion, and appearance helps convey
agreeableness and neuroticism.
- Abstract(参考訳): デジタルキャラクタにおける人格描写の成功はコミュニケーションと没入性を改善する。
最近の研究は、ヒューリスティックなルールやデータ駆動モデルを使ってアニメーションを変更することでパーソナリティを表現することに焦点を当てている。
研究によれば、運動様式は見かけの性格に大きな影響を与えるが、外観の役割も同様に不可欠である。
本研究は,運動伝達ネットワークによって変化したショートビデオのパーソナリティに対する動きと外観の影響を分析した。
会議ビデオクリップのパーソナリティをユーザスタディでラベル付けして,5要素モデルのハイ,ニュートラル,低特性を最もよく表現するサンプルを決定する。
選択したサンプルを音源とし, 入力を駆動することにより, 薄板スプライン運動モデルを用いて映像を変化させる。
動作と外観が個性知覚に与える影響を5つの異なるケースで調査した。
我々の比較研究は、動きと外観が異なる要因に影響を与えることを明らかにしている: 動きは知覚外転に強く影響し、外観は満足感と神経症に寄与する。
関連論文リスト
- CSTalk: Correlation Supervised Speech-driven 3D Emotional Facial Animation Generation [13.27632316528572]
音声駆動の3D顔アニメーション技術は長年開発されてきたが、実用的応用には期待できない。
主な課題は、データ制限、唇のアライメント、表情の自然さである。
本稿では,顔の動きの異なる領域間の相関をモデル化し,生成モデルの訓練を監督し,現実的な表現を生成するCSTalkという手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T11:19:15Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Digital Life Project: Autonomous 3D Characters with Social Intelligence [86.2845109451914]
Digital Life Projectは、言語をユニバーサルメディアとして活用し、自律的な3Dキャラクタを構築するためのフレームワークである。
私たちのフレームワークは、SocioMindとMoMat-MoGenの2つの主要コンポーネントで構成されています。
論文 参考訳(メタデータ) (2023-12-07T18:58:59Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Behavior-Driven Synthesis of Human Dynamics [8.17925295907622]
本稿では,姿勢に依存しない人間の行動の表現を学習する行動合成モデルを提案する。
任意の姿勢で描かれた人物の行動を変更したり、所定の映像列で観察された行動を直接転送することも可能である。
論文 参考訳(メタデータ) (2021-03-08T11:36:32Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - Expertise and confidence explain how social influence evolves along
intellective tasks [10.525352489242396]
本研究では,知的なタスクの連続を集団的に実行する個人集団における対人的影響について検討する。
本稿では, 過渡記憶系の理論, 社会的比較, 社会的影響の起源に関する信頼に関する実証的証拠を報告する。
これらの理論にインスパイアされた認知力学モデルを提案し、個人が時間とともに対人的影響を調整する過程を記述する。
論文 参考訳(メタデータ) (2020-11-13T23:48:25Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。