論文の概要: Decoupling Bias, Aligning Distributions: Synergistic Fairness Optimization for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2511.10150v2
- Date: Mon, 17 Nov 2025 10:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.489084
- Title: Decoupling Bias, Aligning Distributions: Synergistic Fairness Optimization for Deepfake Detection
- Title(参考訳): デカップリングバイアス, 配向分布:ディープフェイク検出のための相乗的公正度最適化
- Authors: Feng Ding, Wenhui Yi, Yunpeng Zhou, Xinan He, Hong Rao, Shu Hu,
- Abstract要約: 性別や人種などの異なる人口集団に対する検出モデルのバイアスは、体系的な誤った判断につながる可能性がある。
この課題に対処するために,両機構協調最適化フレームワークを提案する。
本フレームワークは,グループ間およびグループ間公正性を向上するとともに,ドメイン間の全体的な検出精度を維持する。
- 参考スコア(独自算出の注目度): 13.52582347670271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a core element in the trustworthy deployment of deepfake detection models, especially in the field of digital identity security. Biases in detection models toward different demographic groups, such as gender and race, may lead to systemic misjudgments, exacerbating the digital divide and social inequities. However, current fairness-enhanced detectors often improve fairness at the cost of detection accuracy. To address this challenge, we propose a dual-mechanism collaborative optimization framework. Our proposed method innovatively integrates structural fairness decoupling and global distribution alignment: decoupling channels sensitive to demographic groups at the model architectural level, and subsequently reducing the distance between the overall sample distribution and the distributions corresponding to each demographic group at the feature level. Experimental results demonstrate that, compared with other methods, our framework improves both inter-group and intra-group fairness while maintaining overall detection accuracy across domains.
- Abstract(参考訳): フェアネスは、特にデジタルIDセキュリティの分野で、ディープフェイク検出モデルの信頼性の高い展開において、中核となる要素である。
性別や人種などの異なる人口集団に対する検出モデルのバイアスは、体系的な誤った判断を招き、デジタル分割と社会的不平等を悪化させる可能性がある。
しかし、現在のフェアネス向上検出器は、検出精度を犠牲にしてフェアネスを向上することが多い。
この課題に対処するため,両機構協調最適化フレームワークを提案する。
提案手法は,階層群に敏感なチャネルをモデル構造レベルで分離し,その結果,各階層群に対応する分布と全体の分布との距離を縮めるという,構造的公平性とグローバルな分布アライメントを革新的に統合する。
実験の結果,他の手法と比較して,本フレームワークはグループ間およびグループ間公正性を向上し,ドメイン間の総合的検出精度を維持した。
関連論文リスト
- Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - On the Interconnections of Calibration, Quantification, and Classifier Accuracy Prediction under Dataset Shift [58.91436551466064]
本稿では,データセットシフト条件下でのキャリブレーションと定量化の3つの基本問題間の相互接続について検討する。
これらのタスクのいずれか1つに対するオラクルへのアクセスは、他の2つのタスクの解決を可能にすることを示す。
本稿では,他の分野から借用した高度に確立された手法の直接適応に基づく各問題に対する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-16T15:42:55Z) - Fairness-aware Anomaly Detection via Fair Projection [24.68178499460169]
教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなどの社会的影響の高いアプリケーションにおいて重要である。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
フェアネスを意識した新しい異常検出法であるFairADを提案する。
論文 参考訳(メタデータ) (2025-05-16T11:26:00Z) - Data-Driven Fairness Generalization for Deepfake Detection [1.2221087476416053]
ディープフェイク検出のためのトレーニングデータのバイアスは、異なるグループ間で異なるレベルのパフォーマンスをもたらす可能性がある。
本稿では,合成データセットとモデル最適化を利用して,深度検出における公平性一般化問題に対処するためのデータ駆動型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-21T01:28:35Z) - Redundant Semantic Environment Filling via Misleading-Learning for Fair Deepfake Detection [41.53648814855822]
ディープフェイク技術は、デジタルコミュニケーションにおける信頼の保護と個人保護に不可欠である。
現在の検出器はしばしば二重オーバーフィッティングに悩まされ、特定の指紋と特定の人口統計特性の両方に過度に特化している。
本稿では,無作為な環境に潜伏空間を投入するミスリーディング学習という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T03:12:57Z) - On the Fairness ROAD: Robust Optimization for Adversarial Debiasing [46.495095664915986]
ROADは、局所的に不公平である可能性のある入力を優先するように設計されている。
所与のグローバルフェアネスレベルに対する局所的公正度と正確性に関して優位性を達成する。
また、分布シフトの下での公正な一般化も促進する。
論文 参考訳(メタデータ) (2023-10-27T18:08:42Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Global Distance-distributions Separation for Unsupervised Person
Re-identification [93.39253443415392]
既存の教師なしのReIDアプローチは、距離ベースのマッチング/ランク付けを通じて正のサンプルと負のサンプルを正しく識別するのに失敗することが多い。
本研究では,2つの分布に対する大域的距離分布分離の制約を導入し,大域的視点から正と負のサンプルを明確に分離することを奨励する。
本研究では,本手法がベースラインを大幅に改善し,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-06-01T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。