論文の概要: Testing Human Ability To Detect Deepfake Images of Human Faces
- arxiv url: http://arxiv.org/abs/2212.05056v3
- Date: Thu, 25 May 2023 15:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 23:17:26.093277
- Title: Testing Human Ability To Detect Deepfake Images of Human Faces
- Title(参考訳): 人間の顔のディープフェイク画像検出能力のテスト
- Authors: Sergi D. Bray (1), Shane D. Johnson (1), Bennett Kleinberg (2) ((1)
University College London, (2) Tilburg University)
- Abstract要約: 2020年、AIの専門家をコンサルティングするワークショップは、ディープフェイクを最も深刻なAI脅威と位置づけた。
本研究の目的は,人間の顔の深部像を識別する能力を評価することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes are computationally-created entities that falsely represent
reality. They can take image, video, and audio modalities, and pose a threat to
many areas of systems and societies, comprising a topic of interest to various
aspects of cybersecurity and cybersafety. In 2020 a workshop consulting AI
experts from academia, policing, government, the private sector, and state
security agencies ranked deepfakes as the most serious AI threat. These experts
noted that since fake material can propagate through many uncontrolled routes,
changes in citizen behaviour may be the only effective defence. This study aims
to assess human ability to identify image deepfakes of human faces
(StyleGAN2:FFHQ) from nondeepfake images (FFHQ), and to assess the
effectiveness of simple interventions intended to improve detection accuracy.
Using an online survey, 280 participants were randomly allocated to one of four
groups: a control group, and 3 assistance interventions. Each participant was
shown a sequence of 20 images randomly selected from a pool of 50 deepfake and
50 real images of human faces. Participants were asked if each image was
AI-generated or not, to report their confidence, and to describe the reasoning
behind each response. Overall detection accuracy was only just above chance and
none of the interventions significantly improved this. Participants' confidence
in their answers was high and unrelated to accuracy. Assessing the results on a
per-image basis reveals participants consistently found certain images harder
to label correctly, but reported similarly high confidence regardless of the
image. Thus, although participant accuracy was 62% overall, this accuracy
across images ranged quite evenly between 85% and 30%, with an accuracy of
below 50% for one in every five images. We interpret the findings as suggesting
that there is a need for an urgent call to action to address this threat.
- Abstract(参考訳): ディープフェイク(deepfakes)は、現実を虚偽的に表現した計算的な実体である。
画像、ビデオ、オーディオのモダリティを捉え、サイバーセキュリティとサイバーセーフティの様々な側面に対する関心のトピックを含む、システムや社会の多くの領域に脅威を与えることができる。
2020年、学術、警察、政府、民間セクター、および州のセキュリティ機関からAIの専門家をコンサルティングするワークショップは、ディープフェイクを最も深刻なAI脅威としてランク付けした。
これらの専門家は、偽の物質は多くの制御されていない経路を伝播できるため、市民の行動の変化が唯一の効果的な防御であると指摘している。
本研究の目的は,非ディープフェイク画像(FFHQ)から人間の顔の深部像(StyleGAN2:FFHQ)を識別し,検出精度の向上を目的とした簡単な介入の有効性を評価することである。
オンライン調査では、280人の参加者がランダムに4つのグループ(コントロールグループと3つの支援介入)の1つに割り当てられた。
被験者は、50のディープフェイクと50の実際の人間の顔画像からランダムに選択された20の画像を表示された。
参加者は、それぞれのイメージがAI生成されているかどうかを尋ねられ、自信を報告し、それぞれの反応の背後にある推論を記述する。
全体の検出精度は偶然を上回っており、どの介入も改善しなかった。
参加者の回答に対する信頼度は高く,正確さとは無関係であった。
画像ごとに結果を評価すると、被験者は画像のラベル付けが難しくなるが、画像に関わらず同様に高い信頼性を報告している。
したがって、参加者の精度は全体の62%であったが、画像間の精度は85%から30%に相当し、5枚の画像で50%以下であった。
我々は、この脅威に対処するために緊急の対応を呼びかける必要があることを示唆していると解釈する。
関連論文リスト
- Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Analyzing Human Observer Ability in Morphing Attack Detection -- Where
Do We Stand? [11.37940154420898]
顔形態検出の検査官や観察官の能力は、その課題に対する専門知識、経験、親しみにかかっているという誤解が一般的である。
本研究は,48種類の被験者によるリアルなモーフィング攻撃のベンチマークデータベースを構築し,400個のモーフィング画像を生成する。
また、D-MAD設定における現実的な境界交差シナリオを再現するために、自動境界制御(ABC)ゲートからの画像を400個のプローブ画像でキャプチャし、人間の観察者がモルヒド画像を検出する能力を調べる。
論文 参考訳(メタデータ) (2022-02-24T23:46:22Z) - On the Effect of Selfie Beautification Filters on Face Detection and
Recognition [53.561797148529664]
ソーシャルメディア画像フィルターは、例えば人工眼鏡や動物の鼻で、画像コントラスト、照明、あるいは顔の一部を妨げる。
U-NETセグメンテーションネットワークの修正版を用いて適用操作を再構築する手法を開発した。
認識の観点からは、顔を認識するために訓練されたResNet-34ネットワークを用いて抽出された特徴に対して、距離測定と訓練された機械学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-10-17T22:10:56Z) - Dodging Attack Using Carefully Crafted Natural Makeup [42.65417043860506]
本研究では,人体に自然な化粧を施す新しいブラックボックス対向機械学習(AML)攻撃を提案する。
我々は,実世界の20人の参加者を対象に,ArcFace顔認識モデルに対する攻撃について検討した。
デジタルドメインでは、顔認識システムは全ての参加者を特定することができず、物理ドメインでは、顔認識システムはわずか1.22%のフレームで参加者を識別することができた。
論文 参考訳(メタデータ) (2021-09-14T06:27:14Z) - DeeperForensics Challenge 2020 on Real-World Face Forgery Detection:
Methods and Results [144.5252578415748]
本稿では,現実世界の顔偽造検出に関するDeeperForensics Challenge 2020の手法と結果について報告する。
この挑戦はdeepforensics-1.0データセットを採用し、6万のビデオを合計1760万フレームで構成する。
115人の参加者が参加し、25のチームが有効な応募を行った。
論文 参考訳(メタデータ) (2021-02-18T16:48:57Z) - FaceGuard: A Self-Supervised Defense Against Adversarial Face Images [59.656264895721215]
我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
論文 参考訳(メタデータ) (2020-11-28T21:18:46Z) - Fighting Deepfake by Exposing the Convolutional Traces on Images [0.0]
FACEAPPのようなモバイルアプリは、最も高度なGAN(Generative Adversarial Networks)を使用して、人間の顔写真に極端な変換を生成する。
この種のメディアオブジェクトはDeepfakeという名前を取って、マルチメディアの法医学分野における新たな課題であるDeepfake検出課題を提起した。
本稿では,画像からディープフェイク指紋を抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-08-07T08:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。