論文の概要: Analyzing Fairness in Deepfake Detection With Massively Annotated
Databases
- arxiv url: http://arxiv.org/abs/2208.05845v4
- Date: Mon, 11 Mar 2024 11:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 18:11:01.639237
- Title: Analyzing Fairness in Deepfake Detection With Massively Annotated
Databases
- Title(参考訳): 大量の注釈付きデータベースによる深度検出の公平性の解析
- Authors: Ying Xu, Philipp Terh\"orst, Kiran Raja, Marius Pedersen
- Abstract要約: パブリックなDeepfakeデータセットにおいてバイアス検出を引き起こす要因について検討する。
一般的な5つのDeepfakeデータセットに対して、47の異なる属性を持つ大規模な人口統計学的および非デコグラフィ的アノテーションを作成します。
我々は、これらのデータセット上の3つの最先端のDeepfake検出バックボーンモデルのAIバイアスの原因となる属性を分析する。
- 参考スコア(独自算出の注目度): 9.407035514709293
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, image and video manipulations with Deepfake have become a
severe concern for security and society. Many detection models and datasets
have been proposed to detect Deepfake data reliably. However, there is an
increased concern that these models and training databases might be biased and,
thus, cause Deepfake detectors to fail. In this work, we investigate factors
causing biased detection in public Deepfake datasets by (a) creating
large-scale demographic and non-demographic attribute annotations with 47
different attributes for five popular Deepfake datasets and (b) comprehensively
analysing attributes resulting in AI-bias of three state-of-the-art Deepfake
detection backbone models on these datasets. The analysis shows how various
attributes influence a large variety of distinctive attributes (from over 65M
labels) on the detection performance which includes demographic (age, gender,
ethnicity) and non-demographic (hair, skin, accessories, etc.) attributes. The
results examined datasets show limited diversity and, more importantly, show
that the utilised Deepfake detection backbone models are strongly affected by
investigated attributes making them not fair across attributes. The Deepfake
detection backbone methods trained on such imbalanced/biased datasets result in
incorrect detection results leading to generalisability, fairness, and security
issues. Our findings and annotated datasets will guide future research to
evaluate and mitigate bias in Deepfake detection techniques. The annotated
datasets and the corresponding code are publicly available.
- Abstract(参考訳): 近年、Deepfakeによる画像とビデオの操作は、セキュリティと社会にとって深刻な懸念となっている。
ディープフェイクデータを確実に検出するために、多くの検出モデルとデータセットが提案されている。
しかし、これらのモデルとトレーニングデータベースが偏りがあり、ディープフェイク検出器が故障するのではないかとの懸念が高まっている。
本研究では,公開Deepfakeデータセットにおけるバイアス検出要因について検討する。
(a)5つの人気のDeepfakeデータセットと47の属性を持つ大規模および非デコグラフィ属性アノテーションを作成する。
b) これらのデータセット上の3つの最先端のDeepfake検出バックボーンモデルのAIバイアスをもたらす属性を包括的に分析する。
分析の結果,年齢,性別,民族,非デポグラフィ属性(髪,肌,アクセサリーなど)を含む検出性能に,様々な特徴(65m以上のラベルを含む)が与える影響が示された。
その結果,データセットの多様性は限定的であり,さらに重要なのは,deepfake検出バックボーンモデルの利用が,属性間の公平さを損なう調査結果の影響を強く受けていることであった。
このような不均衡/バイアスのデータセットでトレーニングされたDeepfake検出バックボーンメソッドは、誤った検出結果の結果、一般性、公正性、セキュリティ問題を引き起こす。
我々の発見と注釈付きデータセットは、ディープフェイク検出技術におけるバイアスの評価と軽減のために将来の研究を導く。
注釈付きデータセットと対応するコードが公開されている。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。