論文の概要: Avatar Visual Similarity for Social HCI: Increasing Self-Awareness
- arxiv url: http://arxiv.org/abs/2408.13084v1
- Date: Fri, 23 Aug 2024 14:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 14:50:54.439960
- Title: Avatar Visual Similarity for Social HCI: Increasing Self-Awareness
- Title(参考訳): 社会的HCIにおけるアバターの視覚的類似性 : 自己認識の増大
- Authors: Bernhard Hilpert, Claudio Alves da Silva, Leon Christidis, Chirag Bhuvaneshwara, Patrick Gebhard, Fabrizio Nunnari, Dimitra Tsovaltzi,
- Abstract要約: 鏡やビデオ記録による自己認識の増大は、対面訓練において一般的である。
しかし,仮想アバターを用いた仮想トレーニングでは,自己認識の増大がほとんど検討されていない。
本稿では,仮想トレーニング環境におけるアバターの視覚的類似性と自己認識の増大との関係について検討する。
- 参考スコア(独自算出の注目度): 4.916671992401749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-awareness is a critical factor in social human-human interaction and, hence, in social HCI interaction. Increasing self-awareness through mirrors or video recordings is common in face-to-face trainings, since it influences antecedents of self-awareness like explicit identification and implicit affective identification (affinity). However, increasing self-awareness has been scarcely examined in virtual trainings with virtual avatars, which allow for adjusting the similarity, e.g. to avoid negative effects of self-consciousness. Automatic visual similarity in avatars is an open issue related to high costs. It is important to understand which features need to be manipulated and which degree of similarity is necessary for self-awareness to leverage the added value of using avatars for self-awareness. This article examines the relationship between avatar visual similarity and increasing self-awareness in virtual training environments. We define visual similarity based on perceptually important facial features for human-human identification and develop a theory-based methodology to systematically manipulate visual similarity of virtual avatars and support self-awareness. Three personalized versions of virtual avatars with varying degrees of visual similarity to participants were created (weak, medium and strong facial features manipulation). In a within-subject study (N=33), we tested effects of degree of similarity on perceived similarity, explicit identification and implicit affective identification (affinity). Results show significant differences between the weak similarity manipulation, and both the strong manipulation and the random avatar for all three antecedents of self-awareness. An increasing degree of avatar visual similarity influences antecedents of self-awareness in virtual environments.
- Abstract(参考訳): 自己認識は、社会的人間と人間の相互作用において重要な要素であり、したがって社会的HCI相互作用において重要である。
鏡やビデオ記録による自己認識の増大は、明示的な識別や暗黙的な感情的識別(親和性)のような自己認識の先行者に影響を与えるため、対面訓練において一般的である。
しかし、仮想アバターを用いた仮想トレーニングでは、自己意識のネガティブな影響を避けるために、例えば、類似性を調整することが可能である。
アバターの視覚的類似性は、高コストに関連するオープンな問題である。
自己認識にアバターを用いることの付加価値を活用するためには,どの機能を操作する必要があるのか,どの程度の類似性が必要かを理解することが重要である。
本稿では,仮想トレーニング環境におけるアバターの視覚的類似性と自己認識の増大との関係について検討する。
視覚的類似性を人間の識別のために知覚的に重要な顔の特徴に基づいて定義し,仮想アバターの視覚的類似性を体系的に操作し,自己認識を支援する理論に基づく方法論を開発した。
参加者と視覚的類似度が異なる仮想アバターの3つのパーソナライズされたバージョン(弱,中,強い顔の特徴操作)が作成された。
対象内調査(N=33)において、類似度が知覚類似性、明示的識別、暗黙的感情識別(親和性)に及ぼす影響を調べた。
その結果, 弱類似性操作と, 強い操作と無作為なアバターとの間に有意な差異が認められた。
アバターの視覚的類似度の増加は、仮想環境における自己認識の先行者に影響を与える。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - EgoChoir: Capturing 3D Human-Object Interaction Regions from Egocentric Views [51.53089073920215]
エゴセントリックな人間と物体の相互作用(HOI)を理解することは、人間中心の知覚の基本的な側面である。
既存の手法は主にHOIの観測を利用して、外心的な視点から相互作用領域を捉えている。
EgoChoirは、オブジェクト構造と、外見と頭部運動に固有の相互作用コンテキストを結びつけて、オブジェクトの余裕を明らかにする。
論文 参考訳(メタデータ) (2024-05-22T14:03:48Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - EVOKE: Emotion Enabled Virtual Avatar Mapping Using Optimized Knowledge
Distillation [3.490586236193294]
最適化KnowledgE蒸留(EVOKE)を用いた感情対応仮想アバターマッピングについて紹介する。
我々のフレームワークは,仮想環境内の3次元アバターに感情認識をシームレスに統合するように設計されている。
論文 参考訳(メタデータ) (2024-01-13T02:52:34Z) - Subjective Face Transform using Human First Impressions [5.026535087391025]
この研究は生成モデルを用いて、認識属性を変更する顔画像に意味論的に意味のある編集を見つける。
我々は、実際の顔と合成顔のトレーニングを行い、予測モデルと人間の評価を用いてドメイン内画像とドメイン外画像の評価を行う。
論文 参考訳(メタデータ) (2023-09-27T03:21:07Z) - A Computational Account Of Self-Supervised Visual Learning From
Egocentric Object Play [3.486683381782259]
本研究では,異なる視点を同一視する学習信号が,頑健な視覚学習を支援する方法について検討する。
物体の異なる物理的視点から学習した表現は、下流画像の分類精度を向上する。
論文 参考訳(メタデータ) (2023-05-30T22:42:03Z) - Geometric Visual Similarity Learning in 3D Medical Image Self-supervised
Pre-training [13.069894581477385]
画像間の類似性を学ぶことは、3D医療画像の自己教師付き事前トレーニングに不可欠である。
本稿では,新しい視覚類似学習パラダイムである幾何学的視覚類似学習を提案する。
実験により,画像間類似性学習による事前学習により,より強力な内部シーン,シーン間,グローバルな局所移動能力が得られることが示された。
論文 参考訳(メタデータ) (2023-03-02T00:21:15Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。