論文の概要: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- arxiv url: http://arxiv.org/abs/2208.05845v3
- Date: Wed, 20 Sep 2023 16:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 00:57:08.736139
- Title: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- Title(参考訳): 大量の注釈付きデータベースを用いたディープフェイク検出におけるAIバイアスの包括的解析
- Authors: Ying Xu, Philipp Terh\"orst, Kiran Raja, Marius Pedersen
- Abstract要約: 一般的な5つのDeepfakeデータセットに対して、47の異なる属性の大規模な人口統計学的および非デコグラフィ的アノテーションを提供する。
これらのデータセット上で、最先端の3つのDeepfake検出バックボーンモデルのAIバイアスを分析する。
その結果, データベースには多様性が欠如しており, さらに重要な点として, 利用済みのDeepfake検出バックボーンモデルが多くの属性に対して強く偏りがあることが示唆された。
- 参考スコア(独自算出の注目度): 9.407035514709293
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, image and video manipulations with Deepfake have become a
severe concern for security and society. Many detection models and datasets
have been proposed to detect Deepfake data reliably. However, there is an
increased concern that these models and training databases might be biased and,
thus, cause Deepfake detectors to fail. In this work, we investigate the bias
issue caused by public Deepfake datasets by (a) providing large-scale
demographic and non-demographic attribute annotations of 47 different
attributes for five popular Deepfake datasets and (b) comprehensively analysing
AI-bias of three state-of-the-art Deepfake detection backbone models on these
datasets. The investigation analyses the influence of a large variety of
distinctive attributes (from over 65M labels) on the detection performance,
including demographic (age, gender, ethnicity) and non-demographic (hair, skin,
accessories, etc.) information. The results indicate that investigated
databases lack diversity and, more importantly, show that the utilised Deepfake
detection backbone models are strongly biased towards many investigated
attributes. The Deepfake detection backbone methods, which are trained with
biased datasets, might output incorrect detection results, thereby leading to
generalisability, fairness, and security issues. We hope that the findings of
this study and the annotation databases will help to evaluate and mitigate bias
in future Deepfake detection techniques. The annotation datasets and the
corresponding code are publicly available.
- Abstract(参考訳): 近年、Deepfakeによる画像とビデオの操作は、セキュリティと社会にとって深刻な懸念となっている。
ディープフェイクデータを確実に検出するために、多くの検出モデルとデータセットが提案されている。
しかし、これらのモデルとトレーニングデータベースが偏りがあり、ディープフェイク検出器が故障するのではないかとの懸念が高まっている。
本研究では,公開Deepfakeデータセットによるバイアス問題について検討する。
(a)5つの人気のDeepfakeデータセットに対して47の属性の大規模および非デコグラフィ属性アノテーションを提供する。
b) これらのデータセット上の3つの最先端のDeepfake検出バックボーンモデルのAIバイアスを包括的に分析する。
調査は,年齢,性別,民族,非デポグラフィ情報(髪,肌,アクセサリーなど)を含む,多種多様な特徴(65m以上のラベルを含む)が検出性能に与える影響を分析した。
その結果, データベースには多様性が欠如しており, さらに重要な点として, 利用済みのDeepfake検出バックボーンモデルが多くの属性に対して強く偏りがあることが示唆された。
バイアス付きデータセットでトレーニングされたDeepfake検出バックボーンメソッドは、誤った検出結果を出力し、汎用性、公正性、セキュリティ問題を引き起こす可能性がある。
本研究の成果とアノテーションデータベースが将来のDeepfake検出技術におけるバイアスの評価と緩和に役立つことを期待する。
アノテーションデータセットと対応するコードが公開されている。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - WePaMaDM-Outlier Detection: Weighted Outlier Detection using Pattern
Approaches for Mass Data Mining [0.6754597324022876]
外乱検出は、システム障害、不正行為、およびデータ内のパターンに関する重要な情報を明らかにすることができる。
本稿では、異なる質量データマイニング領域を持つWePaMaDM-Outlier Detectionを提案する。
また, 監視, 故障検出, 傾向解析において, 異常検出技術におけるデータモデリングの重要性についても検討した。
論文 参考訳(メタデータ) (2023-06-09T07:00:00Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。