論文の概要: Can gender categorization influence the perception of animated virtual
humans?
- arxiv url: http://arxiv.org/abs/2208.02386v1
- Date: Wed, 3 Aug 2022 23:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:19:04.751561
- Title: Can gender categorization influence the perception of animated virtual
humans?
- Title(参考訳): 性別分類は仮想人間の知覚に影響を及ぼすか?
- Authors: V. Araujo, D. Schaffer, A. B. Costa, S. R. Musse
- Abstract要約: 我々は、CGを通して、シミュレートされた赤ちゃんに関連する性バイアスを評価することを目的とした知覚的研究を再現する。
バーチャルベビー実験の結果は、実際のベビー実験と類似していた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animations have become increasingly realistic with the evolution of Computer
Graphics (CG). In particular, human models and behaviors were represented
through animated virtual humans, sometimes with a high level of realism. In
particular, gender is a characteristic that is related to human identification,
so that virtual humans assigned to a specific gender have, in general,
stereotyped representations through movements, clothes, hair and colors, in
order to be understood by users as desired by designers. An important area of
study is finding out whether participants' perceptions change depending on how
a virtual human is visually presented. Findings in this area can help the
industry to guide the modeling and animation of virtual humans to deliver the
expected impact to the audience. In this paper, we reproduce, through CG, a
perceptual study that aims to assess gender bias in relation to a simulated
baby. In the original study, two groups of people watched the same video of a
baby reacting to the same stimuli, but one group was told the baby was female
and the other group was told the same baby was male, producing different
perceptions. The results of our study with virtual babies were similar to the
findings with real babies. First, it shows that people's emotional response
change depending on the character gender attribute, in this case the only
difference was the baby's name. Our research indicates that by just informing
the name of a virtual human can be enough to create a gender perception that
impact the participant emotional answer.
- Abstract(参考訳): アニメーションはコンピュータグラフィックス(cg)の進化とともにますます現実的になりつつある。
特に、人間のモデルや行動は、しばしば高レベルのリアリズムを持つアニメーション仮想人間によって表現された。
特に、性別は人間の識別に関連する特徴であり、特定の性別に割り当てられた仮想人間は、一般に、デザイナーが望むようにユーザーによって理解するために、運動、衣服、髪、色を通してステレオタイプされた表現を持つ。
重要な研究分野は、仮想人間の視覚提示方法によって参加者の知覚が変化するかどうかを見極めることである。
この領域の発見は、仮想人間のモデリングとアニメーションをガイドして、期待される影響を聴衆に届けるのに役立つ。
本稿では,シミュレーションされた赤ちゃんに対する性差を評価するための知覚的研究であるCGを通して再現する。
元の研究では、2人のグループは同じ刺激に反応する赤ちゃんの同じビデオを見たが、一方のグループは赤ちゃんが女性であることを伝え、もう一方のグループは同じ赤ちゃんが男性であることを伝え、異なる知覚を生み出した。
仮想赤ちゃんに対する研究の結果は、実際の赤ちゃんの調査結果と似ていた。
まず、人格の性別属性によって人の感情的反応が変化していることを示し、この場合の唯一の違いは赤ちゃんの名前である。
我々の研究は、仮想人間の名前を伝えるだけで、感情的な答えに影響を及ぼす性別の知覚を生み出すことができることを示唆している。
関連論文リスト
- Mitigation of gender bias in automatic facial non-verbal behaviors generation [0.45088680687810573]
非言語的手がかりから話者の性別を識別できる分類器を導入する。
本稿では,従来の行動生成モデルにジェンダー判別器と勾配反転層を統合した新しいモデルFairGenderGenを提案する。
論文 参考訳(メタデータ) (2024-10-09T06:41:24Z) - SynPlay: Importing Real-world Diversity for a Synthetic Human Dataset [19.32308498024933]
SynPlay(シンセティック・プレイグラウンド)は,人間の外見の多様性を現実世界にもたらすことを目的とした,新しい人工人間データセットである。
これまでの作品では見られなかった多様性のレベルを達成するために、現実的な人間の動きとポーズという2つの要素に焦点を当てる。
モデルトレーニングにSynPlayを使用することで,人間の検出とセグメンテーションのための既存の合成データセットよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2024-08-21T17:58:49Z) - Can we truly transfer an actor's genuine happiness to avatars? An
investigation into virtual, real, posed and spontaneous faces [0.7182245711235297]
本研究の目的は、実際の人間の顔、ポーズ、自発性、仮想人間の顔のデータセットにおいて、Ekmanのアクションユニットを評価することである。
また,SheHulkやGeniusといった特定の映画キャラクタを用いたケーススタディも行った。
この調査は、実際の人間でもバーチャル人間でも、教育、健康、エンターテイメント、ゲーム、セキュリティ、さらには法的な問題でも、いくつかの分野の知識に役立つ。
論文 参考訳(メタデータ) (2023-12-04T18:53:42Z) - Do humans and Convolutional Neural Networks attend to similar areas
during scene classification: Effects of task and image type [0.0]
本研究では,人間とCNNの類似性を調節するために,人間の注意マップを抽出するタスクが画像特性とどのように相互作用するかを検討した。
分類対象のタイプは, 特異な, 健全なオブジェクト, オブジェクト配置からなる屋内シーン, あるいは, カテゴリーを定義していないランドスケープのいずれかを用いて変化した。
対象物に対して、人間の手動選択は、CNNと最もよく似た地図を作成し、特定の眼球運動タスクは、ほとんど影響を与えなかった。
論文 参考訳(メタデータ) (2023-07-25T09:02:29Z) - Compositional 3D Human-Object Neural Animation [93.38239238988719]
人間と物体の相互作用(HOI)は、人間中心の視覚生成、AR/VR、ロボット工学などの人間中心のシーン理解アプリケーションに不可欠である。
本稿では,HoIアニメーションにおけるこの課題について,作曲の観点から考察する。
我々は、暗黙のニューラル表現に基づいてHOIダイナミクスをモデル化し、レンダリングするために、ニューラル・ヒューマン・オブジェクトの変形を採用する。
論文 参考訳(メタデータ) (2023-04-27T10:04:56Z) - Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias [11.6727088473067]
ウェブスクラップで訓練された言語ビジョンAIモデルは、性的対象化のバイアスを学ぶ。
女性プロのイメージは、男性プロのイメージと比較して性描写と関連している可能性が高い。
論文 参考訳(メタデータ) (2022-12-21T18:54:19Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Comparing Visual Reasoning in Humans and AI [66.89451296340809]
人間の行動や社会的相互作用を含む複雑なシーンのデータセットを作成しました。
ai/ヒューマンのシーン記述と、各シーンの他の5つの人間記述の地上真実との類似度を定量的に測定した。
結果は、機械/人間の合意シーンの説明は、私たちの複雑なシーンの人間/人間の合意よりもはるかに低いことを示しています。
論文 参考訳(メタデータ) (2021-04-29T04:44:13Z) - Gaze Perception in Humans and CNN-Based Model [66.89451296340809]
cnn(convolutional neural network)ベースの視線モデルと,実世界の映像における注意の軌跡を人間がどのように推定するかを比較した。
モデルと比較すると,注目点の人間推定はシーンの文脈に強く影響していることが示される。
論文 参考訳(メタデータ) (2021-04-17T04:52:46Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。