論文の概要: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- arxiv url: http://arxiv.org/abs/2208.05845v3
- Date: Wed, 20 Sep 2023 16:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 00:57:08.736139
- Title: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- Title(参考訳): 大量の注釈付きデータベースを用いたディープフェイク検出におけるAIバイアスの包括的解析
- Authors: Ying Xu, Philipp Terh\"orst, Kiran Raja, Marius Pedersen
- Abstract要約: 一般的な5つのDeepfakeデータセットに対して、47の異なる属性の大規模な人口統計学的および非デコグラフィ的アノテーションを提供する。
これらのデータセット上で、最先端の3つのDeepfake検出バックボーンモデルのAIバイアスを分析する。
その結果, データベースには多様性が欠如しており, さらに重要な点として, 利用済みのDeepfake検出バックボーンモデルが多くの属性に対して強く偏りがあることが示唆された。
- 参考スコア(独自算出の注目度): 9.407035514709293
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, image and video manipulations with Deepfake have become a
severe concern for security and society. Many detection models and datasets
have been proposed to detect Deepfake data reliably. However, there is an
increased concern that these models and training databases might be biased and,
thus, cause Deepfake detectors to fail. In this work, we investigate the bias
issue caused by public Deepfake datasets by (a) providing large-scale
demographic and non-demographic attribute annotations of 47 different
attributes for five popular Deepfake datasets and (b) comprehensively analysing
AI-bias of three state-of-the-art Deepfake detection backbone models on these
datasets. The investigation analyses the influence of a large variety of
distinctive attributes (from over 65M labels) on the detection performance,
including demographic (age, gender, ethnicity) and non-demographic (hair, skin,
accessories, etc.) information. The results indicate that investigated
databases lack diversity and, more importantly, show that the utilised Deepfake
detection backbone models are strongly biased towards many investigated
attributes. The Deepfake detection backbone methods, which are trained with
biased datasets, might output incorrect detection results, thereby leading to
generalisability, fairness, and security issues. We hope that the findings of
this study and the annotation databases will help to evaluate and mitigate bias
in future Deepfake detection techniques. The annotation datasets and the
corresponding code are publicly available.
- Abstract(参考訳): 近年、Deepfakeによる画像とビデオの操作は、セキュリティと社会にとって深刻な懸念となっている。
ディープフェイクデータを確実に検出するために、多くの検出モデルとデータセットが提案されている。
しかし、これらのモデルとトレーニングデータベースが偏りがあり、ディープフェイク検出器が故障するのではないかとの懸念が高まっている。
本研究では,公開Deepfakeデータセットによるバイアス問題について検討する。
(a)5つの人気のDeepfakeデータセットに対して47の属性の大規模および非デコグラフィ属性アノテーションを提供する。
b) これらのデータセット上の3つの最先端のDeepfake検出バックボーンモデルのAIバイアスを包括的に分析する。
調査は,年齢,性別,民族,非デポグラフィ情報(髪,肌,アクセサリーなど)を含む,多種多様な特徴(65m以上のラベルを含む)が検出性能に与える影響を分析した。
その結果, データベースには多様性が欠如しており, さらに重要な点として, 利用済みのDeepfake検出バックボーンモデルが多くの属性に対して強く偏りがあることが示唆された。
バイアス付きデータセットでトレーニングされたDeepfake検出バックボーンメソッドは、誤った検出結果を出力し、汎用性、公正性、セキュリティ問題を引き起こす可能性がある。
本研究の成果とアノテーションデータベースが将来のDeepfake検出技術におけるバイアスの評価と緩和に役立つことを期待する。
アノテーションデータセットと対応するコードが公開されている。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。