論文の概要: Preserving Fairness Generalization in Deepfake Detection
- arxiv url: http://arxiv.org/abs/2402.17229v1
- Date: Tue, 27 Feb 2024 05:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 17:30:33.378474
- Title: Preserving Fairness Generalization in Deepfake Detection
- Title(参考訳): ディープフェイク検出における公正な一般化の保存
- Authors: Li Lin, Xinan He, Yan Ju, Xin Wang, Feng Ding, Shu Hu
- Abstract要約: ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
- 参考スコア(独自算出の注目度): 14.485069525871504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although effective deepfake detection models have been developed in recent
years, recent studies have revealed that these models can result in unfair
performance disparities among demographic groups, such as race and gender. This
can lead to particular groups facing unfair targeting or exclusion from
detection, potentially allowing misclassified deepfakes to manipulate public
opinion and undermine trust in the model. The existing method for addressing
this problem is providing a fair loss function. It shows good fairness
performance for intra-domain evaluation but does not maintain fairness for
cross-domain testing. This highlights the significance of fairness
generalization in the fight against deepfakes. In this work, we propose the
first method to address the fairness generalization problem in deepfake
detection by simultaneously considering features, loss, and optimization
aspects. Our method employs disentanglement learning to extract demographic and
domain-agnostic forgery features, fusing them to encourage fair learning across
a flattened loss landscape. Extensive experiments on prominent deepfake
datasets demonstrate our method's effectiveness, surpassing state-of-the-art
approaches in preserving fairness during cross-domain deepfake detection. The
code is available at https://github.com/Purdue-M2/Fairness-Generalization
- Abstract(参考訳): 近年、効果的なディープフェイク検出モデルが開発されているが、近年の研究では、これらのモデルが人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらすことが示されている。
これにより、特定のグループが不公平なターゲティングや検出の排除に直面し、誤った分類されたディープフェイクが世論を操り、モデルに対する信頼を損なう可能性がある。
この問題に対処する既存の方法は、公正な損失関数を提供することである。
ドメイン内評価では良好な公平性を示すが、クロスドメインテストでは公平性を維持することができない。
これはディープフェイクとの戦いにおける公平な一般化の重要性を強調している。
本研究では,特徴,損失,最適化を同時に考慮し,ディープフェイク検出におけるフェアネス一般化問題に対処する最初の手法を提案する。
提案手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない偽造的特徴を抽出し, 平らな損失景観における公正な学習を促進する。
顕著なディープフェイクデータセットに対する大規模な実験は、クロスドメインディープフェイク検出時の公平性を維持するための最先端アプローチを超越して、我々の方法の有効性を示す。
コードはhttps://github.com/Purdue-M2/Fairness-Generalizationで公開されている。
関連論文リスト
- Continual Face Forgery Detection via Historical Distribution Preserving [88.66313037412846]
CFFD(Continuous Face Forgery Detection)に焦点をあてる。
CFFDは、以前の攻撃を忘れずに、新しい偽造攻撃から効率的に学習することを目指している。
評価実験の結果,提案手法は最先端の競合よりも優れていた。
論文 参考訳(メタデータ) (2023-08-11T16:37:31Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - One-Class Knowledge Distillation for Face Presentation Attack Detection [53.30584138746973]
本稿では,一級ドメイン適応による対面PADのクロスドメイン性能向上のための教師学生フレームワークを提案する。
学生ネットワークは、教師ネットワークを模倣し、ターゲットドメインの真の顔サンプルの類似した表現を学ぶために訓練される。
テストフェーズでは、教師と学生ネットワークの表現の類似度スコアを用いて、真の攻撃と区別する。
論文 参考訳(メタデータ) (2022-05-08T06:20:59Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Towards Fair Deep Anomaly Detection [24.237000220172906]
我々は,fair anomaly detectionアプローチ(deep fair svdd)のための新しいアーキテクチャを提案する。
提案手法は,異常検出性能の低下を最小限に抑えることで不公平を解消できることを示す。
論文 参考訳(メタデータ) (2020-12-29T22:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。