論文の概要: The Value of AI Guidance in Human Examination of Synthetically-Generated
Faces
- arxiv url: http://arxiv.org/abs/2208.10544v1
- Date: Mon, 22 Aug 2022 18:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:24:24.348730
- Title: The Value of AI Guidance in Human Examination of Synthetically-Generated
Faces
- Title(参考訳): 合成顔のヒト検診におけるAIガイダンスの価値
- Authors: Aidan Boyd, Patrick Tinsley, Kevin Bowyer, Adam Czajka
- Abstract要約: 我々は,ヒト誘導型顔検出装置が,合成画像検出のタスクにおいて,熟練者以外の操作者を支援することができるかどうかを検討する。
我々は1,560名以上の被験者を対象に大規模な実験を行った。
人間の誘導で訓練されたモデルは、伝統的にクロスエントロピー損失を用いて訓練されたモデルと比較して、人間の顔画像の検査により良いサポートを提供する。
- 参考スコア(独自算出の注目度): 4.144518961834414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face image synthesis has progressed beyond the point at which humans can
effectively distinguish authentic faces from synthetically generated ones.
Recently developed synthetic face image detectors boast "better-than-human"
discriminative ability, especially those guided by human perceptual
intelligence during the model's training process. In this paper, we investigate
whether these human-guided synthetic face detectors can assist non-expert human
operators in the task of synthetic image detection when compared to models
trained without human-guidance. We conducted a large-scale experiment with more
than 1,560 subjects classifying whether an image shows an authentic or
synthetically-generated face, and annotate regions that supported their
decisions. In total, 56,015 annotations across 3,780 unique face images were
collected. All subjects first examined samples without any AI support, followed
by samples given (a) the AI's decision ("synthetic" or "authentic"), (b) class
activation maps illustrating where the model deems salient for its decision, or
(c) both the AI's decision and AI's saliency map. Synthetic faces were
generated with six modern Generative Adversarial Networks. Interesting
observations from this experiment include: (1) models trained with
human-guidance offer better support to human examination of face images when
compared to models trained traditionally using cross-entropy loss, (2) binary
decisions presented to humans offers better support than saliency maps, (3)
understanding the AI's accuracy helps humans to increase trust in a given model
and thus increase their overall accuracy. This work demonstrates that although
humans supported by machines achieve better-than-random accuracy of synthetic
face detection, the ways of supplying humans with AI support and of building
trust are key factors determining high effectiveness of the human-AI tandem.
- Abstract(参考訳): 顔画像合成は、人間が人工的に生成された顔とを効果的に区別できる点を超えて進歩してきた。
近年開発された合成顔画像検出器は、特にモデルの訓練過程において人間の知覚知性によって導かれる「人間と異なる」識別能力を誇っている。
そこで本稿では, 人間の誘導による顔検出が, 人間の誘導を伴わないモデルと比較して, 合成画像検出のタスクにおいて, 非熟練の人間の操作者を支援することができるかどうかを検討する。
被験者1,560名以上の被験者を対象に大規模な実験を行い,画像が本物か合成的に生成した顔かを分類した。
合計で3,780枚の顔画像に対する56,015個のアノテーションが収集された。
被験者はまずAIサポートなしでサンプルを検査し、続いてサンプルを提出した。
(a)AIの判断(「合成」または「音響」)
b) クラスアクティベーションは、モデルがその決定の正当性を判断する場所、又は
(c)AIの決定とAIの正当性マップの両方。
合成顔は6つの現代的な生成的敵ネットワークで生成された。
この実験から得られた興味深い観察は、(1)人間誘導で訓練されたモデルは、伝統的にエントロピー損失を用いて訓練されたモデルと比較して、人間の顔画像の検査により良い支持を与える、(2)人間に提示された二項決定は、サリエンシマップよりもより良い支持を与える、(3)AIの精度を理解することは、与えられたモデルに対する信頼を高め、全体的な精度を高めることに役立つ。
本研究は,人工顔検出において,機械が支援する人間はランダムに精度が向上するが,ai支援による人間への供給方法や信頼の構築が,人間-aiタンデムの高い有効性を決定する重要な要因であることを示す。
関連論文リスト
- Analysis of Human Perception in Distinguishing Real and AI-Generated Faces: An Eye-Tracking Based Study [6.661332913985627]
本研究では,人間がどのように実像と偽像を知覚し,区別するかを検討する。
StyleGAN-3生成画像を解析したところ、参加者は76.80%の平均精度で偽の顔と現実を区別できることがわかった。
論文 参考訳(メタデータ) (2024-09-23T19:34:30Z) - HumanRefiner: Benchmarking Abnormal Human Generation and Refining with Coarse-to-fine Pose-Reversible Guidance [80.97360194728705]
AbHumanは、解剖学的異常に焦点を当てた最初の大規模なヒトのベンチマークである。
HumanRefinerは、テキスト・ツー・イメージ生成における人間の異常の粗い微細化のための新しいプラグ・アンド・プレイアプローチである。
論文 参考訳(メタデータ) (2024-07-09T15:14:41Z) - HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - Towards the Detection of AI-Synthesized Human Face Images [12.090322373964124]
本稿では,GAN(Generative Adversarial Networks)とさまざまなDMによって生成される人間の顔画像を含むベンチマークを提案する。
そして、異なる生成モデルによって導入された偽の痕跡を周波数領域で解析し、様々な知見を得た。
さらに、周波数表現で訓練された検出器が、他の見えない生成モデルとよく一致できることを実証する。
論文 参考訳(メタデータ) (2024-02-13T19:37:44Z) - Exploring the Naturalness of AI-Generated Images [59.04528584651131]
我々は、AI生成画像の視覚的自然性をベンチマークし、評価する第一歩を踏み出した。
本研究では,人間の評価を整列するAGIの自然性を自動予測するジョイント・オブジェクト・イメージ・ナチュラルネス評価器(JOINT)を提案する。
その結果,JOINTは自然性評価において,より主観的に一貫した結果を提供するために,ベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-12-09T06:08:09Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Uncalibrated Models Can Improve Human-AI Collaboration [10.106324182884068]
私たちは、AIモデルを実際によりも自信を持って提示することで、人間-AIのパフォーマンスが向上することを示した。
私たちはまず、何千もの人間のインタラクションのデータを使って、人間がAIアドバイスを組み込む方法のモデルを学びます。
論文 参考訳(メタデータ) (2022-02-12T04:51:00Z) - A Study of the Human Perception of Synthetic Faces [10.058235580923583]
本稿では,最先端の深層学習に基づくGANモデルを含む,異なる戦略を用いて生成した合成顔の人間の知覚について紹介する。
GANベースの、より伝統的な画像処理ベースの技術が人間の観察者を混乱させる頻度など、重要な疑問に答える。
論文 参考訳(メタデータ) (2021-11-08T02:03:18Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。