論文の概要: Personality-Driven Gaze Animation with Conditional Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.02224v1
- Date: Wed, 11 Nov 2020 00:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:51:02.944692
- Title: Personality-Driven Gaze Animation with Conditional Generative
Adversarial Networks
- Title(参考訳): 条件付き生成逆ネットワークを用いたパーソナリティ駆動ゲズアニメーション
- Authors: Funda Durupinar
- Abstract要約: 日常的な作業を行う42人の被験者の視線追跡データと性格特性を用いてモデルを訓練する。
ビッグファイブの性格特性の値から, 視線目標, 点滅時間, 瞳孔次元からなる時系列データを生成する。
生成したデータを用いて,ゲームエンジン上の仮想エージェントの視線運動を合成する。
- 参考スコア(独自算出の注目度): 0.24366811507669117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a generative adversarial learning approach to synthesize gaze
behavior of a given personality. We train the model using an existing data set
that comprises eye-tracking data and personality traits of 42 participants
performing an everyday task. Given the values of Big-Five personality traits
(openness, conscientiousness, extroversion, agreeableness, and neuroticism),
our model generates time series data consisting of gaze target, blinking times,
and pupil dimensions. We use the generated data to synthesize the gaze motion
of virtual agents on a game engine.
- Abstract(参考訳): 本研究では,ある人格の視線行動を合成するための生成的対人学習手法を提案する。
被験者42人のアイトラッキングデータとパーソナリティ特性からなる既存のデータセットを用いて,日常作業を行うモデルをトレーニングする。
ビッグファイブの性格特性(開放性、良心性、外向性、同意性、神経性)の値を考えると、我々のモデルは視線目標、点滅時間、瞳孔次元からなる時系列データを生成する。
生成したデータを用いて,ゲームエンジン上の仮想エージェントの視線運動を合成する。
関連論文リスト
- PersonalityScanner: Exploring the Validity of Personality Assessment Based on Multimodal Signals in Virtual Reality [44.15145632980038]
PersonalityScannerは、認知プロセスを刺激し、日々の行動をシミュレートするVRシミュレータである。
ビデオ、音声、テキスト、アイトラッキング、顔のマイクロ圧縮、ポーズ、深度データ、ログ、慣性測定ユニットを含む10つのモードの同期マルチモーダルデータセットを収集する。
論文 参考訳(メタデータ) (2024-07-29T06:17:41Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - MIDAS: Deep learning human action intention prediction from natural eye
movement patterns [6.557082555839739]
自然視のみに基づく対象操作タスクに対する人間の意図をデコードするための、完全にデータ駆動型アプローチを提案する。
以上の結果から,自然な視線と相対位置から純粋に人間の動きの意図を911.9%の精度で復号できることが示唆された。
論文 参考訳(メタデータ) (2022-01-22T21:52:42Z) - Facial Emotion Recognition using Deep Residual Networks in Real-World
Environments [5.834678345946704]
そこで本研究では,Wild内および大規模に収集されたビデオデータセットに基づいて訓練された顔特徴抽出モデルを提案する。
データセットは100万のラベル付きフレームと2,616万の被験者で構成されている。
感情認識領域において時間情報は重要であるため、LSTM細胞を用いてデータの時間的ダイナミクスを捉える。
論文 参考訳(メタデータ) (2021-11-04T10:08:22Z) - MAAD: A Model and Dataset for "Attended Awareness" in Driving [10.463152664328025]
本研究では,環境に対する参加者の意識を推定するモデルを提案する。
我々のモデルはビデオ形式で入力シーン情報として捉え、ノイズの多い視線推定を行う。
我々は、運転シーンのビデオに出席する23人の被験者の24.5時間の視線シーケンスを含む、高精度な視線追跡装置で新しいデータセットをキャプチャした。
論文 参考訳(メタデータ) (2021-10-16T16:36:10Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - Hindsight for Foresight: Unsupervised Structured Dynamics Models from
Physical Interaction [24.72947291987545]
エージェントが世界と対話することを学ぶための鍵となる課題は、オブジェクトの物理的性質を推論することである。
本研究では,ラベルのない3次元点群と画像から直接,ロボットのインタラクションのダイナミクスをモデル化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-02T11:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。