論文の概要: The Deepfake Detective: Interpreting Neural Forensics Through Sparse Features and Manifolds
- arxiv url: http://arxiv.org/abs/2512.21670v1
- Date: Thu, 25 Dec 2025 13:27:56 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:57:02.95699
- Title: The Deepfake Detective: Interpreting Neural Forensics Through Sparse Features and Manifolds
- Title(参考訳): Deepfake Detective: スパース機能とマニフォールドによる神経科学の解釈
- Authors: Subramanyam Sahoo, Jared Junkin,
- Abstract要約: 本稿では,視覚言語モデルに適用したディープフェイク検出のための機械的解釈可能性フレームワークを提案する。
提案手法は、内部ネットワーク表現のスパースオートエンコーダ解析と、新しい法科学多様体解析を組み合わせたものである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deepfake detection models have achieved high accuracy in identifying synthetic media, but their decision processes remain largely opaque. In this paper we present a mechanistic interpretability framework for deepfake detection applied to a vision-language model. Our approach combines a sparse autoencoder (SAE) analysis of internal network representations with a novel forensic manifold analysis that probes how the model's features respond to controlled forensic artifact manipulations. We demonstrate that only a small fraction of latent features are actively used in each layer, and that the geometric properties of the model's feature manifold, including intrinsic dimensionality, curvature, and feature selectivity, vary systematically with different types of deepfake artifacts. These insights provide a first step toward opening the "black box" of deepfake detectors, allowing us to identify which learned features correspond to specific forensic artifacts and to guide the development of more interpretable and robust models.
- Abstract(参考訳): ディープフェイク検出モデルは、合成媒体の同定において高い精度を達成したが、その決定過程はほとんど不透明である。
本稿では,視覚言語モデルに適用したディープフェイク検出のための機械的解釈可能性フレームワークを提案する。
提案手法は,内部ネットワーク表現のスパースオートエンコーダ (SAE) 解析と,モデルの特徴が制御された法定アーティファクト操作にどのように反応するかを探索する新しい法定多様体解析を組み合わせる。
各層で潜在特徴のごく一部しか利用されておらず、本質的な次元性、曲率、特徴選択性を含むモデルの特徴多様体の幾何学的性質は、異なる種類のディープフェイクアーティファクトと体系的に異なることを実証する。
これらの知見は、ディープフェイク検出器の「ブラックボックス」を開くための第一歩であり、どの学習された特徴が特定の法医学的アーティファクトに対応するかを特定し、より解釈可能で堅牢なモデルの開発を導くことができる。
関連論文リスト
- Propose and Rectify: A Forensics-Driven MLLM Framework for Image Manipulation Localization [49.71303998618939]
本稿では,意味論的推論と法科学的な分析を橋渡しするPropose-Rectifyフレームワークを提案する。
提案手法は,具体的技術実証により,初期セマンティックな提案が体系的に検証され,拡張されることを保証し,包括的検出精度と局所化精度を実現する。
論文 参考訳(メタデータ) (2025-08-25T12:43:53Z) - FAME: A Lightweight Spatio-Temporal Network for Model Attribution of Face-Swap Deepfakes [9.462613446025001]
フェイスフェイクのDeepfakeビデオは、デジタルセキュリティ、プライバシー、メディアの整合性へのリスクが高まる。
FAMEは、異なる顔生成モデルに特有の微妙なアーティファクトをキャプチャするために設計されたフレームワークである。
結果は、FAMEが既存のメソッドを精度と実行時の両方で一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-13T05:47:09Z) - Navigating the Latent Space Dynamics of Neural Models [45.503229142378814]
我々は、潜在多様体に作用する力学系として、ニューラルモデルの別の解釈を示す。
オートエンコーダモデルは、符号化復号写像を反復的に適用することによって導かれる、多様体上の潜在ベクトル場を暗黙的に定義することを示す。
本稿では,ベクトル場をネットワークの表現として活用し,モデルとデータの特性を解析するための新しいツールを提案する。
論文 参考訳(メタデータ) (2025-05-28T18:57:41Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - Dynamic texture analysis for detecting fake faces in video sequences [6.1356022122903235]
本研究では,映像信号のテクスチャ・時間的ダイナミクスの解析について検討する。
目標は、実際の偽のシーケンスを識別し、識別することである。
時間セグメントの連成解析に基づいて複数の二分決定を構築することを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:21:24Z) - Interpretable and Trustworthy Deepfake Detection via Dynamic Prototypes [20.358053429294458]
視覚的説明の一形態として動的プロトタイプを用いて顔画像の偽造を検知する新しい人間中心のアプローチを提案する。
大規模な実験結果から、DPNetは、目に見えないテストデータセットでさえ、競争力のある予測性能を達成することが示された。
論文 参考訳(メタデータ) (2020-06-28T00:25:34Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。