論文の概要: Fairness Evaluation in Deepfake Detection Models using Metamorphic
Testing
- arxiv url: http://arxiv.org/abs/2203.06825v1
- Date: Mon, 14 Mar 2022 02:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:43:51.955022
- Title: Fairness Evaluation in Deepfake Detection Models using Metamorphic
Testing
- Title(参考訳): 変成試験を用いた深度検出モデルの公平性評価
- Authors: Muxin Pu, Meng Yi Kuan, Nyee Thoang Lim, Chun Yong Chong, Mei Kuan Lim
- Abstract要約: この研究は、このような異常下でのディープフェイク検出モデルがどのように振る舞うかを評価することである。
我々は,最先端のディープフェイク検出モデルであるMesoInception-4を対象モデルとして選択した。
我々は、DLとAIシステムにおける潜在的な性別バイアスを明らかにすることに注力する。
- 参考スコア(独自算出の注目度): 2.0649235321315285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness of deepfake detectors in the presence of anomalies are not well
investigated, especially if those anomalies are more prominent in either male
or female subjects. The primary motivation for this work is to evaluate how
deepfake detection model behaves under such anomalies. However, due to the
black-box nature of deep learning (DL) and artificial intelligence (AI)
systems, it is hard to predict the performance of a model when the input data
is modified. Crucially, if this defect is not addressed properly, it will
adversely affect the fairness of the model and result in discrimination of
certain sub-population unintentionally. Therefore, the objective of this work
is to adopt metamorphic testing to examine the reliability of the selected
deepfake detection model, and how the transformation of input variation places
influence on the output. We have chosen MesoInception-4, a state-of-the-art
deepfake detection model, as the target model and makeup as the anomalies.
Makeups are applied through utilizing the Dlib library to obtain the 68 facial
landmarks prior to filling in the RGB values. Metamorphic relations are derived
based on the notion that realistic perturbations of the input images, such as
makeup, involving eyeliners, eyeshadows, blushes, and lipsticks (which are
common cosmetic appearance) applied to male and female images, should not alter
the output of the model by a huge margin. Furthermore, we narrow down the scope
to focus on revealing potential gender biases in DL and AI systems.
Specifically, we are interested to examine whether MesoInception-4 model
produces unfair decisions, which should be considered as a consequence of
robustness issues. The findings from our work have the potential to pave the
way for new research directions in the quality assurance and fairness in DL and
AI systems.
- Abstract(参考訳): 異常の存在下でのディープフェイク検出器の公平性は、特に男性または女性の被験者において特に顕著である場合、よく研究されていない。
この研究の主な動機は、deepfake検出モデルがそのような異常下でどのように振る舞うかを評価することである。
しかし、深層学習(DL)と人工知能(AI)システムのブラックボックスの性質から、入力データの変更時にモデルの性能を予測することは困難である。
重要なことに、もしこの欠陥が適切に対処されていない場合、それはモデルの公平性に悪影響を及ぼし、特定のサブ集団を意図せずに識別する結果となる。
そこで本研究の目的は,選択したディープフェイク検出モデルの信頼性と入力変動の変換が出力に与える影響を検証するために,変成試験を採用することである。
我々は,最先端のディープフェイク検出モデルであるmesoinception-4をターゲットモデルとメイクアップとして選択した。
rgb値を満たす前に、dlibライブラリを利用して68の顔ランドマークを取得することにより化粧を行う。
メタモルフィック関係は、男性や女性の画像に適用されるアイライナー、アイシャドウ、ブラッシュ、口紅(一般的な化粧品の外観)を含む化粧などの入力画像の現実的な摂動が、大きなマージンでモデルの出力を変更するべきではないという考えに基づいて導かれる。
さらに、DLとAIシステムにおける潜在的な性バイアスを明らかにすることに注力する範囲を狭める。
具体的には,メソインセプション4モデルが不公平な意思決定を生じさせるかどうかについて検討する。
我々の研究から得られた知見は、DLとAIシステムの品質保証と公正性において、新たな研究方向の道を開く可能性がある。
関連論文リスト
- MeLIAD: Interpretable Few-Shot Anomaly Detection with Metric Learning and Entropy-based Scoring [2.394081903745099]
本稿では,新たな異常検出手法であるMeLIADを提案する。
MeLIADはメートル法学習に基づいており、真の異常の事前分布仮定に頼ることなく、設計による解釈可能性を達成する。
解釈可能性の定量的かつ定性的な評価を含む5つの公開ベンチマークデータセットの実験は、MeLIADが異常検出とローカライゼーション性能の改善を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-20T16:01:43Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model [59.08735812631131]
製造業において異常検査が重要な役割を担っている。
既存の異常検査手法は、異常データが不足しているため、その性能に制限がある。
本稿では,新しい拡散型マイクロショット異常生成モデルであるAnomalyDiffusionを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:13:40Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Fast Unsupervised Brain Anomaly Detection and Segmentation with
Diffusion Models [1.6352599467675781]
脳画像における異常検出とセグメント分割のための拡散モデルに基づく手法を提案する。
拡散モデルは,2次元CTおよびMRIデータを用いた一連の実験において,自己回帰的アプローチと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2022-06-07T17:30:43Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving [5.784950275336468]
自律走行車における物体検出は、一般的にカメラ画像とライダー入力に基づいており、予測モデルを訓練するためにしばしば使用される。
このような回帰モデルの予測不確実性を測定するために,PURE (Prediction sURface uncErtainty) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-11T08:31:15Z) - Gradients as a Measure of Uncertainty in Neural Networks [16.80077149399317]
本稿では,学習モデルの不確かさの定量化にバックプロパゲート勾配を用いることを提案する。
本研究では,AUROC スコアの4.8% を非分布検出において,勾配法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T16:58:46Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。