論文の概要: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- arxiv url: http://arxiv.org/abs/2208.05845v1
- Date: Thu, 11 Aug 2022 14:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:05:16.987964
- Title: A Comprehensive Analysis of AI Biases in DeepFake Detection With
Massively Annotated Databases
- Title(参考訳): 大量の注釈付きデータベースを用いたディープフェイク検出におけるAIバイアスの包括的解析
- Authors: Ying Xu, Philipp Terh\"orst, Kiran Raja, Marius Pedersen
- Abstract要約: 一般的な5つのDeepFakeデータセットに対して、41の異なる属性の大規模な人口統計学的および非デコグラフィ的アノテーションを提供する。
これらのデータベース上で、最先端のDeepFake検出モデルのAIバイアスを分析する。
- 参考スコア(独自算出の注目度): 11.434431778632447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, image and video manipulations with DeepFake have become a
severe concern for security and society. Therefore, many detection models and
databases have been proposed to detect DeepFake data reliably. However, there
is an increased concern that these models and training databases might be
biased and thus, cause DeepFake detectors to fail. In this work, we tackle
these issues by (a) providing large-scale demographic and non-demographic
attribute annotations of 41 different attributes for five popular DeepFake
datasets and (b) comprehensively analysing AI-bias of multiple state-of-the-art
DeepFake detection models on these databases. The investigation analyses the
influence of a large variety of distinctive attributes (from over 65M labels)
on the detection performance, including demographic (age, gender, ethnicity)
and non-demographic (hair, skin, accessories, etc.) information. The results
indicate that investigated databases lack diversity and, more importantly, show
that the utilised DeepFake detection models are strongly biased towards many
investigated attributes. Moreover, the results show that the models'
decision-making might be based on several questionable (biased) assumptions,
such if a person is smiling or wearing a hat. Depending on the application of
such DeepFake detection methods, these biases can lead to generalizability,
fairness, and security issues. We hope that the findings of this study and the
annotation databases will help to evaluate and mitigate bias in future DeepFake
detection techniques. Our annotation datasets are made publicly available.
- Abstract(参考訳): 近年、DeepFakeによる画像とビデオの操作は、セキュリティと社会にとって深刻な懸念となっている。
したがって、DeepFakeデータを確実に検出するために、多くの検出モデルとデータベースが提案されている。
しかし、これらのモデルとトレーニングデータベースがバイアスを受けている可能性があるため、DeepFake検出が失敗するのではないかという懸念が高まっている。
この作業では、これらの問題に取り組みます。
(a) 人気のある5つのDeepFakeデータセットに対して41の属性の大規模および非デコグラフィ属性アノテーションを提供する。
b) これらのデータベース上の複数の最先端のDeepFake検出モデルのAIバイアスを包括的に分析する。
調査は,年齢,性別,民族,非デポグラフィ情報(髪,肌,アクセサリーなど)を含む,多種多様な特徴(65m以上のラベルを含む)が検出性能に与える影響を分析した。
その結果,データベースは多様性に欠けており,さらに重要なこととして,使用可能なディープフェイク検出モデルは,多くの属性に強く偏っていることがわかった。
また,モデルの意思決定は,笑顔や帽子をかぶっている場合など,いくつかの疑わしい(偏りのある)仮定に基づいている可能性が示唆された。
このようなDeepFake検出手法の適用により、これらのバイアスは一般化可能性、公平性、セキュリティ問題につながる可能性がある。
本研究の成果とアノテーションデータベースが将来のDeepFake検出技術におけるバイアスの評価と緩和に役立つことを期待する。
アノテーションデータセットは公開されています。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - WePaMaDM-Outlier Detection: Weighted Outlier Detection using Pattern
Approaches for Mass Data Mining [0.6754597324022876]
外乱検出は、システム障害、不正行為、およびデータ内のパターンに関する重要な情報を明らかにすることができる。
本稿では、異なる質量データマイニング領域を持つWePaMaDM-Outlier Detectionを提案する。
また, 監視, 故障検出, 傾向解析において, 異常検出技術におけるデータモデリングの重要性についても検討した。
論文 参考訳(メタデータ) (2023-06-09T07:00:00Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。