論文の概要: Fair Deepfake Detectors Can Generalize
- arxiv url: http://arxiv.org/abs/2507.02645v1
- Date: Thu, 03 Jul 2025 14:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.384554
- Title: Fair Deepfake Detectors Can Generalize
- Title(参考訳): 美味しいディープフェイク検知器は一般化できる
- Authors: Harry Cheng, Ming-Hui Liu, Yangyang Guo, Tianyi Wang, Liqiang Nie, Mohan Kankanhalli,
- Abstract要約: 共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
- 参考スコア(独自算出の注目度): 51.21167546843708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake detection models face two critical challenges: generalization to unseen manipulations and demographic fairness among population groups. However, existing approaches often demonstrate that these two objectives are inherently conflicting, revealing a trade-off between them. In this paper, we, for the first time, uncover and formally define a causal relationship between fairness and generalization. Building on the back-door adjustment, we show that controlling for confounders (data distribution and model capacity) enables improved generalization via fairness interventions. Motivated by this insight, we propose Demographic Attribute-insensitive Intervention Detection (DAID), a plug-and-play framework composed of: i) Demographic-aware data rebalancing, which employs inverse-propensity weighting and subgroup-wise feature normalization to neutralize distributional biases; and ii) Demographic-agnostic feature aggregation, which uses a novel alignment loss to suppress sensitive-attribute signals. Across three cross-domain benchmarks, DAID consistently achieves superior performance in both fairness and generalization compared to several state-of-the-art detectors, validating both its theoretical foundation and practical effectiveness.
- Abstract(参考訳): ディープフェイク検出モデルは、2つの重要な課題に直面している。
しかし、既存のアプローチは、これらの2つの目的が本質的に矛盾していることを示し、それらの間のトレードオフを明らかにします。
本稿では, 公正性と一般化の因果関係を初めて明らかにし, 正式に定義する。
バックドア調整に基づいて,共同創設者のコントロール(データ分散とモデルキャパシティ)により,公正な介入による一般化が向上することを示す。
この知見に触発され、我々は:プラグイン・アンド・プレイ・フレームワークであるDAID(Demographic Attribute-insensitive Intervention Detection)を提案する。
一 逆正当性重み付け及びサブグループワイド特徴正規化を利用して分布バイアスを中和する復号化対応データ再バランス
二 新規のアライメント損失を用いて、感性属性信号の抑制を行う、画像非依存的特徴集約。
3つのクロスドメインベンチマークにおいて、DAIDは、いくつかの最先端検出器と比較して、公平性と一般化の両方において常に優れた性能を達成し、その理論的基礎と実用性の両方を検証している。
関連論文リスト
- Fairness-aware Anomaly Detection via Fair Projection [24.68178499460169]
教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなどの社会的影響の高いアプリケーションにおいて重要である。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
フェアネスを意識した新しい異常検出法であるFairADを提案する。
論文 参考訳(メタデータ) (2025-05-16T11:26:00Z) - Causally Fair Node Classification on Non-IID Graph Data [9.363036392218435]
本稿では,フェアネスを考慮したMLアルゴリズムにおける課題について述べる。
非IID、グラフベースの設定の見落としている領域に取り組みます。
因果推論のためのメッセージパッシング変分オートエンコーダを開発した。
論文 参考訳(メタデータ) (2025-05-03T02:05:51Z) - Robust Distribution Alignment for Industrial Anomaly Detection under Distribution Shift [51.24522135151649]
異常検出は産業アプリケーションの品質管理において重要な役割を担っている。
既存の方法は、一般化可能なモデルをトレーニングすることで、ドメインシフトに対処しようとする。
提案手法は,最先端の異常検出法や領域適応法と比較して,優れた結果を示す。
論文 参考訳(メタデータ) (2025-03-19T05:25:52Z) - Out-of-Distribution Detection on Graphs: A Survey [58.47395497985277]
グラフアウト・オブ・ディストリビューション(GOOD)検出は、トレーニング中に見られる分布から逸脱するグラフデータを特定することに焦点を当てる。
既存の手法を,拡張ベース,再構築ベース,情報伝達ベース,分類ベースという4つのタイプに分類する。
本稿では,グラフデータによるユニークな課題を浮き彫りにして,実践的応用と理論的基礎について論じる。
論文 参考訳(メタデータ) (2025-02-12T04:07:12Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Calibrated Feature Decomposition for Generalizable Person
Re-Identification [82.64133819313186]
Calibrated Feature Decomposition (CFD)モジュールは、人物の再識別の一般化能力の向上に焦点を当てている。
キャリブレーション・アンド・スタンダード化されたバッチ正規化(CSBN)は、キャリブレーションされた人物表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-11-27T17:12:43Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。