論文の概要: Interpretable Face Manipulation Detection via Feature Whitening
- arxiv url: http://arxiv.org/abs/2106.10834v1
- Date: Mon, 21 Jun 2021 03:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-22 15:32:26.198859
- Title: Interpretable Face Manipulation Detection via Feature Whitening
- Title(参考訳): 特徴白化による解釈可能な顔操作検出
- Authors: Yingying Hua, Daichi Zhang, Pengju Wang, Shiming Ge
- Abstract要約: 本稿では,信頼と正確な推論を実現するために,解釈可能な顔操作検出手法を提案する。
このアプローチは、フィーチャーホワイトニングモジュールを埋め込むことで、顔操作検出プロセスを透過的にする可能性がある。
- 参考スコア(独自算出の注目度): 19.59834579365074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Why should we trust the detections of deep neural networks for manipulated
faces? Understanding the reasons is important for users in improving the
fairness, reliability, privacy and trust of the detection models. In this work,
we propose an interpretable face manipulation detection approach to achieve the
trustworthy and accurate inference. The approach could make the face
manipulation detection process transparent by embedding the feature whitening
module. This module aims to whiten the internal working mechanism of deep
networks through feature decorrelation and feature constraint. The experimental
results demonstrate that our proposed approach can strike a balance between the
detection accuracy and the model interpretability.
- Abstract(参考訳): なぜ私たちは、操作された顔に対するディープニューラルネットワークの検出を信頼すべきなのか?
理由を理解することは、検出モデルの公平性、信頼性、プライバシ、信頼性を改善する上で重要である。
本研究では,信頼できる正確な推論を実現するための,解釈可能な顔操作検出手法を提案する。
このアプローチは、フィーチャーホワイトニングモジュールを埋め込むことで、顔操作検出プロセスを透明にする可能性がある。
このモジュールは、機能のデコレーションと機能制約によってディープネットワークの内部動作メカニズムを緩和することを目的としている。
実験結果から,提案手法は検出精度とモデル解釈可能性のバランスをとることができることがわかった。
関連論文リスト
- Lie Detector: Unified Backdoor Detection via Cross-Examination Framework [68.45399098884364]
半正直な設定で一貫したバックドア検出フレームワークを提案する。
本手法は,SoTAベースラインよりも5.4%,1.6%,11.9%の精度で検出性能が向上する。
特に、マルチモーダルな大規模言語モデルにおいて、バックドアを効果的に検出するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-03-21T06:12:06Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Leveraging Unlabeled Data for 3D Medical Image Segmentation through
Self-Supervised Contrastive Learning [3.7395287262521717]
現在の3次元半教師付きセグメンテーション法は、文脈情報の限定的考慮のような重要な課題に直面している。
両者の相違を探索し、活用するために設計された2つの個別のワークを導入し、最終的に誤った予測結果を修正した。
我々は、信頼できない予測と信頼できない予測を区別するために、自己教師付きコントラスト学習パラダイムを採用している。
論文 参考訳(メタデータ) (2023-11-21T14:03:16Z) - Trust, but Verify: Robust Image Segmentation using Deep Learning [7.220625464268644]
医用画像分割のためのディープニューラルネットワークの出力を検証する手法について述べる。
より深いニューラルレグレッションネットワークを用いた従来のセグメンテーション評価手法は偽陰性に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-10-25T20:55:07Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Malware Analysis with Artificial Intelligence and a Particular Attention
on Results Interpretability [0.0]
本稿では,バイナリファイルからグレースケール画像への変換に基づくモデルを提案する。
サンプルが充填されているか、85%の精度で暗号化されているかを決定することができる。
この種のツールは、一般的な検出モデルの解釈可能性の欠如を補うデータアナリストにとって非常に有用であるべきです。
論文 参考訳(メタデータ) (2021-07-23T09:40:05Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z) - Towards Interpretable and Robust Hand Detection via Pixel-wise
Prediction [22.495383040383803]
既存のCNNに基づく手検出手法の解釈可能性の欠如は,それらの予測の背後にある理論的根拠を理解するのを困難にしている。
本稿では,手検出に解釈可能性を導入し,新しいニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-01-13T11:18:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。