論文の概要: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- arxiv url: http://arxiv.org/abs/2208.05845v1
- Date: Thu, 11 Aug 2022 14:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:05:16.987964
- Title: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- Title(参考訳): 大量の注釈付きデータベースを用いたディープフェイク検出におけるAIバイアスの包括的解析
- Authors: Ying Xu, Philipp Terh\"orst, Kiran Raja, Marius Pedersen
- Abstract要約: 一般的な5つのDeepFakeデータセットに対して、41の異なる属性の大規模な人口統計学的および非デコグラフィ的アノテーションを提供する。
これらのデータベース上で、最先端のDeepFake検出モデルのAIバイアスを分析する。
- 参考スコア(独自算出の注目度): 11.434431778632447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, image and video manipulations with DeepFake have become a
severe concern for security and society. Therefore, many detection models and
databases have been proposed to detect DeepFake data reliably. However, there
is an increased concern that these models and training databases might be
biased and thus, cause DeepFake detectors to fail. In this work, we tackle
these issues by (a) providing large-scale demographic and non-demographic
attribute annotations of 41 different attributes for five popular DeepFake
datasets and (b) comprehensively analysing AI-bias of multiple state-of-the-art
DeepFake detection models on these databases. The investigation analyses the
influence of a large variety of distinctive attributes (from over 65M labels)
on the detection performance, including demographic (age, gender, ethnicity)
and non-demographic (hair, skin, accessories, etc.) information. The results
indicate that investigated databases lack diversity and, more importantly, show
that the utilised DeepFake detection models are strongly biased towards many
investigated attributes. Moreover, the results show that the models'
decision-making might be based on several questionable (biased) assumptions,
such if a person is smiling or wearing a hat. Depending on the application of
such DeepFake detection methods, these biases can lead to generalizability,
fairness, and security issues. We hope that the findings of this study and the
annotation databases will help to evaluate and mitigate bias in future DeepFake
detection techniques. Our annotation datasets are made publicly available.
- Abstract(参考訳): 近年、DeepFakeによる画像とビデオの操作は、セキュリティと社会にとって深刻な懸念となっている。
したがって、DeepFakeデータを確実に検出するために、多くの検出モデルとデータベースが提案されている。
しかし、これらのモデルとトレーニングデータベースがバイアスを受けている可能性があるため、DeepFake検出が失敗するのではないかという懸念が高まっている。
この作業では、これらの問題に取り組みます。
(a) 人気のある5つのDeepFakeデータセットに対して41の属性の大規模および非デコグラフィ属性アノテーションを提供する。
b) これらのデータベース上の複数の最先端のDeepFake検出モデルのAIバイアスを包括的に分析する。
調査は,年齢,性別,民族,非デポグラフィ情報(髪,肌,アクセサリーなど)を含む,多種多様な特徴(65m以上のラベルを含む)が検出性能に与える影響を分析した。
その結果,データベースは多様性に欠けており,さらに重要なこととして,使用可能なディープフェイク検出モデルは,多くの属性に強く偏っていることがわかった。
また,モデルの意思決定は,笑顔や帽子をかぶっている場合など,いくつかの疑わしい(偏りのある)仮定に基づいている可能性が示唆された。
このようなDeepFake検出手法の適用により、これらのバイアスは一般化可能性、公平性、セキュリティ問題につながる可能性がある。
本研究の成果とアノテーションデータベースが将来のDeepFake検出技術におけるバイアスの評価と緩和に役立つことを期待する。
アノテーションデータセットは公開されています。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。