論文の概要: More Real than Real: A Study on Human Visual Perception of Synthetic
Faces
- arxiv url: http://arxiv.org/abs/2106.07226v1
- Date: Mon, 14 Jun 2021 08:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:41:14.909489
- Title: More Real than Real: A Study on Human Visual Perception of Synthetic
Faces
- Title(参考訳): 現実よりも現実的:合成顔の人間の視覚知覚に関する研究
- Authors: Federica Lago, Cecilia Pasquini, Rainer B\"ohme, H\'el\`ene Dumont,
Val\'erie Goffaux and Giulia Boato
- Abstract要約: 本稿では,最先端のジェネレーティブ・ディバイザリー・ネットワークが生み出した合成顔画像にボランティアが露出する知覚実験について述べる。
実験結果から、現代のAIによって生成された合成顔と実際の顔を区別する人間の能力に疑問を投げかけるべきかどうかが明らかになる。
- 参考スコア(独自算出の注目度): 7.25613186882905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep fakes became extremely popular in the last years, also thanks to their
increasing realism. Therefore, there is the need to measures human's ability to
distinguish between real and synthetic face images when confronted with
cutting-edge creation technologies. We describe the design and results of a
perceptual experiment we have conducted, where a wide and diverse group of
volunteers has been exposed to synthetic face images produced by
state-of-the-art Generative Adversarial Networks (namely, PG-GAN, StyleGAN,
StyleGAN2). The experiment outcomes reveal how strongly we should call into
question our human ability to discriminate real faces from synthetic ones
generated through modern AI.
- Abstract(参考訳): ディープフェイクは、現実主義の高まりにより、ここ数年で非常に人気を博した。
したがって、最先端の創造技術に直面すると、実際の顔画像と合成顔画像とを区別する人間の能力を測定する必要がある。
本研究は,最先端の創発的敵ネットワーク(pg-gan,stylegan,stylegan2)が生成する合成顔画像に対して,多種多様なボランティア群が露出した知覚実験の設計と結果について述べる。
実験の結果は、現代のAIによって生成された合成顔と実際の顔を区別する人間の能力に疑問を投げかけるべきかどうかを明らかにしている。
関連論文リスト
- Analysis of Human Perception in Distinguishing Real and AI-Generated Faces: An Eye-Tracking Based Study [6.661332913985627]
本研究では,人間がどのように実像と偽像を知覚し,区別するかを検討する。
StyleGAN-3生成画像を解析したところ、参加者は76.80%の平均精度で偽の顔と現実を区別できることがわかった。
論文 参考訳(メタデータ) (2024-09-23T19:34:30Z) - VIGFace: Virtual Identity Generation Model for Face Image Synthesis [13.81887339529775]
合成顔画像を生成する新しいフレームワークであるVIGFaceを提案する。
肖像画の権利を気にすることなく、仮想顔画像を作成することができる。
既存のイメージを組み込んだ効果的な拡張手法として機能する。
論文 参考訳(メタデータ) (2024-03-13T06:11:41Z) - InceptionHuman: Controllable Prompt-to-NeRF for Photorealistic 3D Human Generation [61.62346472443454]
InceptionHumanは、異なるモードのプロンプトの組み合わせで簡単にコントロールでき、フォトリアリスティックな3D人間を生成することができるプロンプト・トゥ・NeRFフレームワークである。
InceptionHumanは、徐々に洗練されたNeRF空間内で、一貫した3Dヒューマン生成を実現する。
論文 参考訳(メタデータ) (2023-11-27T15:49:41Z) - Synthesizing Photorealistic Virtual Humans Through Cross-modal
Disentanglement [0.8959668207214765]
口唇の動きを正確に表現できる高品質な仮想顔を合成するためのエンドツーエンドフレームワークを提案する。
提案手法はリアルタイムに動作し,現在の最先端技術と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2022-09-03T03:56:49Z) - Open-Eye: An Open Platform to Study Human Performance on Identifying
AI-Synthesized Faces [51.56417104929796]
我々は、AI合成顔検出の人的パフォーマンスを研究するために、Open-eyeと呼ばれるオンラインプラットフォームを開発した。
本稿では,オープンアイの設計とワークフローについて述べる。
論文 参考訳(メタデータ) (2022-05-13T14:30:59Z) - A Study of the Human Perception of Synthetic Faces [10.058235580923583]
本稿では,最先端の深層学習に基づくGANモデルを含む,異なる戦略を用いて生成した合成顔の人間の知覚について紹介する。
GANベースの、より伝統的な画像処理ベースの技術が人間の観察者を混乱させる頻度など、重要な疑問に答える。
論文 参考訳(メタデータ) (2021-11-08T02:03:18Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Learning Inverse Rendering of Faces from Real-world Videos [52.313931830408386]
既存の方法は、顔画像を3つの構成要素(アルベド、ノーマル、照明)に分解する。
本稿では,アルベドと正常の整合性の仮定に基づいて,我々のモデルを実顔ビデオでトレーニングするための弱い教師付きトレーニング手法を提案する。
私たちのネットワークは、実データと合成データの両方で訓練されています。
論文 参考訳(メタデータ) (2020-03-26T17:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。