論文の概要: Avatar Visual Similarity for Social HCI: Increasing Self-Awareness
- arxiv url: http://arxiv.org/abs/2408.13084v1
- Date: Fri, 23 Aug 2024 14:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-08-26 14:50:54.439960
- Title: Avatar Visual Similarity for Social HCI: Increasing Self-Awareness
- Title(参考訳): 社会的HCIにおけるアバターの視覚的類似性 : 自己認識の増大
- Authors: Bernhard Hilpert, Claudio Alves da Silva, Leon Christidis, Chirag Bhuvaneshwara, Patrick Gebhard, Fabrizio Nunnari, Dimitra Tsovaltzi,
- Abstract要約: 鏡やビデオ記録による自己認識の増大は、対面訓練において一般的である。
しかし,仮想アバターを用いた仮想トレーニングでは,自己認識の増大がほとんど検討されていない。
本稿では,仮想トレーニング環境におけるアバターの視覚的類似性と自己認識の増大との関係について検討する。
- 参考スコア(独自算出の注目度): 4.916671992401749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-awareness is a critical factor in social human-human interaction and, hence, in social HCI interaction. Increasing self-awareness through mirrors or video recordings is common in face-to-face trainings, since it influences antecedents of self-awareness like explicit identification and implicit affective identification (affinity). However, increasing self-awareness has been scarcely examined in virtual trainings with virtual avatars, which allow for adjusting the similarity, e.g. to avoid negative effects of self-consciousness. Automatic visual similarity in avatars is an open issue related to high costs. It is important to understand which features need to be manipulated and which degree of similarity is necessary for self-awareness to leverage the added value of using avatars for self-awareness. This article examines the relationship between avatar visual similarity and increasing self-awareness in virtual training environments. We define visual similarity based on perceptually important facial features for human-human identification and develop a theory-based methodology to systematically manipulate visual similarity of virtual avatars and support self-awareness. Three personalized versions of virtual avatars with varying degrees of visual similarity to participants were created (weak, medium and strong facial features manipulation). In a within-subject study (N=33), we tested effects of degree of similarity on perceived similarity, explicit identification and implicit affective identification (affinity). Results show significant differences between the weak similarity manipulation, and both the strong manipulation and the random avatar for all three antecedents of self-awareness. An increasing degree of avatar visual similarity influences antecedents of self-awareness in virtual environments.
- Abstract(参考訳): 自己認識は、社会的人間と人間の相互作用において重要な要素であり、したがって社会的HCI相互作用において重要である。
鏡やビデオ記録による自己認識の増大は、明示的な識別や暗黙的な感情的識別(親和性)のような自己認識の先行者に影響を与えるため、対面訓練において一般的である。
しかし、仮想アバターを用いた仮想トレーニングでは、自己意識のネガティブな影響を避けるために、例えば、類似性を調整することが可能である。
アバターの視覚的類似性は、高コストに関連するオープンな問題である。
自己認識にアバターを用いることの付加価値を活用するためには,どの機能を操作する必要があるのか,どの程度の類似性が必要かを理解することが重要である。
本稿では,仮想トレーニング環境におけるアバターの視覚的類似性と自己認識の増大との関係について検討する。
視覚的類似性を人間の識別のために知覚的に重要な顔の特徴に基づいて定義し,仮想アバターの視覚的類似性を体系的に操作し,自己認識を支援する理論に基づく方法論を開発した。
参加者と視覚的類似度が異なる仮想アバターの3つのパーソナライズされたバージョン(弱,中,強い顔の特徴操作)が作成された。
対象内調査(N=33)において、類似度が知覚類似性、明示的識別、暗黙的感情識別(親和性)に及ぼす影響を調べた。
その結果, 弱類似性操作と, 強い操作と無作為なアバターとの間に有意な差異が認められた。
アバターの視覚的類似度の増加は、仮想環境における自己認識の先行者に影響を与える。
関連論文リスト
- Is It Really You? Exploring Biometric Verification Scenarios in Photorealistic Talking-Head Avatar Videos [12.12643642515884]
攻撃者はユーザーのアバターを盗み、外見や声を保ち、視覚や音だけでその使用を検知することはほぼ不可能である。
我々の主な疑問は、個人の顔の動きパターンが、アバターの視覚的外観が所有者のファクシミリであるときに、自分の身元を確認するための信頼性のある行動バイオメトリックスとして機能するかどうかである。
実験の結果,顔の動きのランドマークは,80%に近づいたAUC値による有意義な識別を可能にすることが示された。
論文 参考訳(メタデータ) (2025-08-01T16:23:27Z) - Representations in vision and language converge in a shared, multidimensional space of perceived similarities [0.0]
視覚的および言語的類似性判定は行動レベルに収束することを示す。
また、自然のシーン画像から誘発されるfMRI脳反応のネットワークについても予測する。
これらの結果は、人間の視覚的および言語的類似性判断は、共有的、モダリティに依存しない表現構造に基礎を置いていることを示している。
論文 参考訳(メタデータ) (2025-07-29T14:42:31Z) - VisualSpeaker: Visually-Guided 3D Avatar Lip Synthesis [70.76837748695841]
視覚音声認識によって教師される写真リアルな微分可能レンダリングを用いてギャップを埋める新しい手法であるVisualSpeakerを提案する。
我々の貢献は、訓練中に訓練済みの視覚自動音声認識モデルを通して3Dガウス・スプティング・アバターレンダリングを通過させることによって得られる、知覚的な唇読影損失である。
MEADデータセットの評価は、VisualSpeakerが標準のLip Vertex Errorメトリックを56.1%改善し、生成されたアニメーションの知覚的品質を向上し、メッシュ駆動アニメーションの制御性を維持していることを示している。
論文 参考訳(メタデータ) (2025-07-08T15:04:17Z) - SmartAvatar: Text- and Image-Guided Human Avatar Generation with VLM AI Agents [91.26239311240873]
SmartAvatarは視覚言語によるアニメーション対応の3Dアバターを生成するためのフレームワークである。
重要なイノベーションは、エージェントがドラフトアバターを描画する自動検証ループである。
生成されたアバターは完全にリグされ、一貫したアイデンティティと外観で操作をサポートする。
論文 参考訳(メタデータ) (2025-06-05T03:49:01Z) - Beyond Accuracy: Uncovering the Role of Similarity Perception and its Alignment with Semantics in Supervised Learning [0.0]
本稿では,Deep similarity Inspector(DSI)について紹介する。
実験の結果,畳み込みニューラルネットワーク (CNN) とビジョントランスフォーマー (ViT) の両方が,3段階のトレーニングにおいて,リッチな類似性知覚を発達させることがわかった。
論文 参考訳(メタデータ) (2025-05-27T15:32:10Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - Psychological Effect of AI driven marketing tools for beauty/facial feature enhancement [0.0]
AIを利用した顔評価ツールは、個人が外観を評価し、社会的判断を内部化する方法を変えつつある。
本研究は,このようなツールが自尊心,自尊心,感情的反応に与える影響について検討した。
論文 参考訳(メタデータ) (2025-04-13T16:42:06Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - EgoChoir: Capturing 3D Human-Object Interaction Regions from Egocentric Views [51.53089073920215]
エゴセントリックな人間と物体の相互作用(HOI)を理解することは、人間中心の知覚の基本的な側面である。
既存の手法は主にHOIの観測を利用して、外心的な視点から相互作用領域を捉えている。
EgoChoirは、オブジェクト構造と、外見と頭部運動に固有の相互作用コンテキストを結びつけて、オブジェクトの余裕を明らかにする。
論文 参考訳(メタデータ) (2024-05-22T14:03:48Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - EVOKE: Emotion Enabled Virtual Avatar Mapping Using Optimized Knowledge
Distillation [3.490586236193294]
最適化KnowledgE蒸留(EVOKE)を用いた感情対応仮想アバターマッピングについて紹介する。
我々のフレームワークは,仮想環境内の3次元アバターに感情認識をシームレスに統合するように設計されている。
論文 参考訳(メタデータ) (2024-01-13T02:52:34Z) - Subjective Face Transform using Human First Impressions [5.026535087391025]
この研究は生成モデルを用いて、認識属性を変更する顔画像に意味論的に意味のある編集を見つける。
我々は、実際の顔と合成顔のトレーニングを行い、予測モデルと人間の評価を用いてドメイン内画像とドメイン外画像の評価を行う。
論文 参考訳(メタデータ) (2023-09-27T03:21:07Z) - A Computational Account Of Self-Supervised Visual Learning From
Egocentric Object Play [3.486683381782259]
本研究では,異なる視点を同一視する学習信号が,頑健な視覚学習を支援する方法について検討する。
物体の異なる物理的視点から学習した表現は、下流画像の分類精度を向上する。
論文 参考訳(メタデータ) (2023-05-30T22:42:03Z) - Geometric Visual Similarity Learning in 3D Medical Image Self-supervised
Pre-training [13.069894581477385]
画像間の類似性を学ぶことは、3D医療画像の自己教師付き事前トレーニングに不可欠である。
本稿では,新しい視覚類似学習パラダイムである幾何学的視覚類似学習を提案する。
実験により,画像間類似性学習による事前学習により,より強力な内部シーン,シーン間,グローバルな局所移動能力が得られることが示された。
論文 参考訳(メタデータ) (2023-03-02T00:21:15Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。