論文の概要: EvolveReason: Self-Evolving Reasoning Paradigm for Explainable Deepfake Facial Image Identification
- arxiv url: http://arxiv.org/abs/2603.07515v1
- Date: Sun, 08 Mar 2026 07:42:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.704736
- Title: EvolveReason: Self-Evolving Reasoning Paradigm for Explainable Deepfake Facial Image Identification
- Title(参考訳): EvolveReason: 説明可能なディープフェイク顔画像識別のための自己進化型推論パラダイム
- Authors: Binjia Zhou, Dawei Luo, Shuai Chen, Feng Xu, Seow, Haoyuan Li, Jiachi Wang, Jiawen Wang, Zunlei Feng, Yijun Bei,
- Abstract要約: 顔偽造識別技術は、従来の分類法と説明可能なVLMアプローチの2つのタイプに分類される。
EvolveReasonは、顔の偽造を識別する際の人間の監査人の推論と観察過程を模倣する。
EvolveReasonが高周波フォージェリーキューを識別できるようにするために,このフレームワークには,フォージェリーなラテント空間分布キャプチャモジュールが組み込まれている。
- 参考スコア(独自算出の注目度): 31.147091366909507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of AIGC technology, developing identification methods to address the security challenges posed by deepfakes has become urgent. Face forgery identification techniques can be categorized into two types: traditional classification methods and explainable VLM approaches. The former provides classification results but lacks explanatory ability, while the latter, although capable of providing coarse-grained explanations, often suffers from hallucinations and insufficient detail. To overcome these limitations, we propose EvolveReason, which mimics the reasoning and observational processes of human auditors when identifying face forgeries. By constructing a chain-of-thought dataset, CoT-Face, tailored for advanced VLMs, our approach guides the model to think in a human-like way, prompting it to output reasoning processes and judgment results. This provides practitioners with reliable analysis and helps alleviate hallucination. Additionally, our framework incorporates a forgery latent-space distribution capture module, enabling EvolveReason to identify high-frequency forgery cues difficult to extract from the original images. To further enhance the reliability of textual explanations, we introduce a self-evolution exploration strategy, leveraging reinforcement learning to allow the model to iteratively explore and optimize its textual descriptions in a two-stage process. Experimental results show that EvolveReason not only outperforms the current state-of-the-art methods in identification performance but also accurately identifies forgery details and demonstrates generalization capabilities.
- Abstract(参考訳): AIGC技術の急速な進歩に伴い、ディープフェイクによるセキュリティ問題に対処する識別手法の開発が急務となっている。
顔偽造識別技術は、従来の分類法と説明可能なVLMアプローチの2つのタイプに分類される。
前者は分類結果を提供するが説明能力に欠けるが、後者は粗い説明を提供することができるが、幻覚や詳細な説明が不十分な場合が多い。
これらの制約を克服するために,顔の偽造を識別する際の人間の監査者の推論と観察過程を模倣したEvolveReasonを提案する。
先進的なVLMに適したチェーン・オブ・シークレット・データセット(CoT-Face)を構築することで,本手法は人間的な考え方を導出し,推論プロセスと判断結果を出力する。
これは、実践者に信頼できる分析を提供し、幻覚を緩和するのに役立つ。
EvolveReasonは,原画像から抽出し難い高周波フォージェリーキューを識別する。
テキスト説明の信頼性をさらに高めるため,2段階のプロセスにおいてモデルがテキスト記述を反復的に探索し最適化できるように,強化学習を活用する自己進化探索戦略を導入する。
実験結果から,EvolveReasonは現在の最先端手法の識別性能に優れるだけでなく,偽造の詳細を正確に識別し,一般化能力を示すことがわかった。
関連論文リスト
- VerLM: Explaining Face Verification Using Natural Language [50.56081916981731]
顔認証のための革新的視覚言語モデル(VLM)を提案する。
我々のモデルは2つの補完的な説明スタイルを用いて一意に訓練されている。
提案するVLMは,高度な特徴抽出技術と高度な推論機能を統合し,検証プロセスの明瞭な記述を可能にする。
論文 参考訳(メタデータ) (2026-01-05T05:16:07Z) - Cognitive Inception: Agentic Reasoning against Visual Deceptions by Injecting Skepticism [81.39177645864757]
完全推論に基づくエージェント推論フレームワークであるtextbfInception を提案する。
私たちの知る限りでは、AIGCの視覚的騙しに対する完全な推論ベースのフレームワークとしてはこれが初めてです。
論文 参考訳(メタデータ) (2025-11-21T05:13:30Z) - From Evidence to Verdict: An Agent-Based Forensic Framework for AI-Generated Image Detection [19.240335260177382]
AIFo(Agent-based Image Forensics)は、マルチエージェントコラボレーションによる人間の法医学的調査をエミュレートする、トレーニング不要のフレームワークである。
従来の手法とは異なり,本フレームワークでは,リバース画像検索,メタデータ抽出,事前学習型分類器,VLM解析など,一連の法医学的ツールを用いている。
我々の総合的な評価は6000のイメージに及び、現代の生成プラットフォームや多様なオンラインソースの画像を含む現実世界のシナリオに挑戦する。
論文 参考訳(メタデータ) (2025-10-31T18:36:49Z) - ThinkFake: Reasoning in Multimodal Large Language Models for AI-Generated Image Detection [51.93101033997245]
AI生成画像のリアリズムの増大は、誤情報やプライバシー侵害に対する深刻な懸念を引き起こしている。
我々は、AI生成画像検出のための新しい推論に基づく一般化可能なフレームワークThinkFakeを提案する。
我々は、ThinkFakeがGenImageベンチマークで最先端の手法より優れており、挑戦的なLOKIベンチマークで強力なゼロショットの一般化を示すことを示す。
論文 参考訳(メタデータ) (2025-09-24T07:34:09Z) - HAMLET-FFD: Hierarchical Adaptive Multi-modal Learning Embeddings Transformation for Face Forgery Detection [6.060036926093259]
HAMLET-FFDは顔偽造検出のためのクロスドメイン一般化フレームワークである。
視覚的証拠と概念的手がかりを統合し、専門家の法医学的分析をエミュレートする。
HAMLET-FFDは設計上、外部プラグインとして機能する全ての事前訓練されたパラメータを凍結する。
論文 参考訳(メタデータ) (2025-07-28T15:09:52Z) - DAVID-XR1: Detecting AI-Generated Videos with Explainable Reasoning [58.70446237944036]
DAVID-Xは、AI生成ビデオに詳細な欠陥レベル、時間空間アノテーションと有理書を組み合わせた最初のデータセットである。
DAVID-XR1は、視覚的推論の解釈可能な連鎖を提供するために設計されたビデオ言語モデルである。
以上の結果から,AI生成ビデオコンテンツの信頼性確認のための説明可能な検出手法が期待できることを示す。
論文 参考訳(メタデータ) (2025-06-13T13:39:53Z) - Aligning Characteristic Descriptors with Images for Human-Expert-like Explainability [0.0]
法執行機関や医療診断のようなミッションクリティカルな領域では、ディープラーニングモデルのアウトプットを説明・解釈する能力が不可欠である。
本稿では,特徴記述子を用いたモデル決定手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T15:47:18Z) - FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - CaRiNG: Learning Temporal Causal Representation under Non-Invertible Generation Process [22.720927418184672]
非可逆生成時間データのCAusal RepresentatIonを同一性保証付きで学習するための原則的アプローチを提案する。
具体的には、時間的文脈を利用して失われた潜伏情報を復元し、この理論の条件を適用してトレーニングプロセスの指導を行う。
論文 参考訳(メタデータ) (2024-01-25T22:01:07Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。