論文の概要: Personality Perception in Human Videos Altered by Motion Transfer
Networks
- arxiv url: http://arxiv.org/abs/2401.14733v1
- Date: Fri, 26 Jan 2024 09:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:25:24.142084
- Title: Personality Perception in Human Videos Altered by Motion Transfer
Networks
- Title(参考訳): 動き伝達ネットワークによるヒトビデオのパーソナリティ知覚の変化
- Authors: Ayda Yurto\u{g}lu, Sinan Sonlu, Yal{\i}m Do\u{g}an, U\u{g}ur
G\"ud\"ukbay
- Abstract要約: 本研究は、移動移動ネットワークによって変化するショートビデオの知覚的パーソナリティに対する動きと外観の影響を解析する。
本稿では,Five-Factorモデルの高,中立,低特性を最もよく表すサンプルを決定するために,ユーザスタディを用いた会議ビデオクリップに個人性をラベル付けする。
我々は、選択したサンプルをソースとして利用し、入力を駆動することで、薄膜スプライン運動モデルを用いてこれらのビデオを変更する。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful portrayal of personality in digital characters improves
communication and immersion. Current research focuses on expressing personality
through modifying animations using heuristic rules or data-driven models. While
studies suggest motion style highly influences the apparent personality, the
role of appearance can be similarly essential. This work analyzes the influence
of movement and appearance on the perceived personality of short videos altered
by motion transfer networks. We label the personalities in conference video
clips with a user study to determine the samples that best represent the
Five-Factor model's high, neutral, and low traits. We alter these videos using
the Thin-Plate Spline Motion Model, utilizing the selected samples as the
source and driving inputs. We follow five different cases to study the
influence of motion and appearance on personality perception. Our comparative
study reveals that motion and appearance influence different factors: motion
strongly affects perceived extraversion, and appearance helps convey
agreeableness and neuroticism.
- Abstract(参考訳): デジタルキャラクタにおける人格描写の成功はコミュニケーションと没入性を改善する。
最近の研究は、ヒューリスティックなルールやデータ駆動モデルを使ってアニメーションを変更することでパーソナリティを表現することに焦点を当てている。
研究によれば、運動様式は見かけの性格に大きな影響を与えるが、外観の役割も同様に不可欠である。
本研究は,運動伝達ネットワークによって変化したショートビデオのパーソナリティに対する動きと外観の影響を分析した。
会議ビデオクリップのパーソナリティをユーザスタディでラベル付けして,5要素モデルのハイ,ニュートラル,低特性を最もよく表現するサンプルを決定する。
選択したサンプルを音源とし, 入力を駆動することにより, 薄板スプライン運動モデルを用いて映像を変化させる。
動作と外観が個性知覚に与える影響を5つの異なるケースで調査した。
我々の比較研究は、動きと外観が異なる要因に影響を与えることを明らかにしている: 動きは知覚外転に強く影響し、外観は満足感と神経症に寄与する。
関連論文リスト
- HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - The Effects of Embodiment and Personality Expression on Learning in LLM-based Educational Agents [0.7499722271664147]
本研究は,人格表現と体格が,教育的会話エージェントにおける人格認識と学習にどのように影響するかを考察する。
教育アプリケーションに適したLLMベースの会話支援を統合することで、既存のパーソナリティ駆動型会話エージェントフレームワークを拡張した。
1)対話を通して人格を伝達する対話のみのモデル,(2)対話のみで人格を表現するアニメーション人間モデル,(3)対話と身体と顔のアニメーションを通して人格を表現するアニメーション人間モデル,の3つのモデルを評価する。
論文 参考訳(メタデータ) (2024-06-24T09:38:26Z) - Neural Representations of Dynamic Visual Stimuli [36.04425924379253]
fMRIで測定した脳活動から視運動情報を光学的流れとして予測(あるいは復号化)できることを示す。
動き条件付き映像拡散モデルを用いて静的画像をリアルにアニメーションできることを示す。
この研究は、人間の脳がどのように視覚情報を動的に処理するかを解釈するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2024-06-04T17:59:49Z) - Digital Life Project: Autonomous 3D Characters with Social Intelligence [86.2845109451914]
Digital Life Projectは、言語をユニバーサルメディアとして活用し、自律的な3Dキャラクタを構築するためのフレームワークである。
私たちのフレームワークは、SocioMindとMoMat-MoGenの2つの主要コンポーネントで構成されています。
論文 参考訳(メタデータ) (2023-12-07T18:58:59Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Behavior-Driven Synthesis of Human Dynamics [8.17925295907622]
本稿では,姿勢に依存しない人間の行動の表現を学習する行動合成モデルを提案する。
任意の姿勢で描かれた人物の行動を変更したり、所定の映像列で観察された行動を直接転送することも可能である。
論文 参考訳(メタデータ) (2021-03-08T11:36:32Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - Expertise and confidence explain how social influence evolves along
intellective tasks [10.525352489242396]
本研究では,知的なタスクの連続を集団的に実行する個人集団における対人的影響について検討する。
本稿では, 過渡記憶系の理論, 社会的比較, 社会的影響の起源に関する信頼に関する実証的証拠を報告する。
これらの理論にインスパイアされた認知力学モデルを提案し、個人が時間とともに対人的影響を調整する過程を記述する。
論文 参考訳(メタデータ) (2020-11-13T23:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。