論文の概要: DOCFORGE-BENCH: A Comprehensive 0-shot Benchmark for Document Forgery Detection and Analysis
- arxiv url: http://arxiv.org/abs/2603.01433v2
- Date: Tue, 10 Mar 2026 04:46:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 19:44:00.497504
- Title: DOCFORGE-BENCH: A Comprehensive 0-shot Benchmark for Document Forgery Detection and Analysis
- Title(参考訳): DOCFORGE-BENCH:文書偽造検出と解析のための総合的な0ショットベンチマーク
- Authors: Zengqi Zhao, Weidi Xia, En Wei, Yan Zhang, Jane Mo, Tiannan Zhang, Yuanqin Dai, Zexi Chen, Yiran Tao, Simiao Ren,
- Abstract要約: 文書偽造検出のための最初の統一ゼロショットベンチマークであるDOCFORGE-BENCHを提案する。
テキスト改ざん、レシート偽造、ID文書操作にまたがる8つのデータセットにまたがる14の手法を評価する。
私たちの中心的な発見は、シングルスレッドプロトコルでは見えない、広範囲にわたるキャリブレーション障害です。
- 参考スコア(独自算出の注目度): 6.329569532501952
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present DOCFORGE-BENCH, the first unified zero-shot benchmark for document forgery detection, evaluating 14 methods across eight datasets spanning text tampering, receipt forgery, and identity document manipulation. Unlike fine-tuning-oriented evaluations such as ForensicHub [Du et al., 2025], DOCFORGE-BENCH applies all methods with their published pretrained weights and no domain adaptation -- a deliberate design choice that reflects the realistic deployment scenario where practitioners lack labeled document training data. Our central finding is a pervasive calibration failure invisible under single-threshold protocols: methods achieve moderate Pixel-AUC (>=0.76) yet near-zero Pixel-F1. This AUC-F1 gap is not a discrimination failure but a score-distribution shift: tampered regions occupy only 0.27-4.17% of pixels in document images -- an order of magnitude less than in natural image benchmarks -- making the standard tau=0.5 threshold catastrophically miscalibrated. Oracle-F1 is 2-10x higher than fixed-threshold Pixel-F1, confirming that calibration, not representation, is the bottleneck. A controlled calibration experiment validates this: adapting a single threshold on N=10 domain images recovers 39-55% of the Oracle-F1 gap, demonstrating that threshold adaptation -- not retraining -- is the key missing step for practical deployment. Overall, no evaluated method works reliably out-of-the-box on diverse document types, underscoring that document forgery detection remains an unsolved problem. We further note that all eight datasets predate the era of generative AI editing; benchmarks covering diffusion- and LLM-based document forgeries represent a critical open gap on the modern attack surface.
- Abstract(参考訳): 本稿では,文書偽造検出のための最初の統一ゼロショットベンチマークであるDOCFORGE-BENCHについて述べる。
ForensicHub [Du et al , 2025]のような微調整指向の評価とは異なり、DOCFORGE-BENCHは、事前にトレーニングされた重みとドメイン適応のないすべてのメソッドを適用している。
我々の中心的な発見は、シングルスレッショルドプロトコルでは見えない、広範囲にわたるキャリブレーション障害である:メソッドは、適度なPixel-AUC(>=0.76)とほぼゼロのPixel-F1を達成する。
このAUC-F1ギャップは、識別の失敗ではなく、スコアの分配シフトである: テーパーされた領域は、文書画像中のピクセルの0.27-4.17%しか占めていない。
Oracle-F1は固定閾値のPixel-F1より2~10倍高く、キャリブレーションが表現ではなくボトルネックであることを確認している。
N=10のドメインイメージに単一のしきい値を適用すると、Oracle-F1ギャップの39~55%が回復する。
全体として、評価されたメソッドは、さまざまなドキュメントタイプに対して確実にアウト・オブ・ザ・ボックスで動作せず、文書の偽検出が未解決の問題であることを示す。
さらに,8つのデータセットが生成AI編集の時代に先行している点に留意する。拡散およびLLMベースの文書偽造に関するベンチマークは,現代の攻撃面における重要なオープンギャップを示している。
関連論文リスト
- AIForge-Doc: A Benchmark for Detecting AI-Forged Tampering in Financial and Form Documents [7.014776899553499]
我々は,ファイナンシャルおよびフォーム文書にピクセルレベルのアノテーションを付加した拡散モデルベースの塗り絵のみを対象とする,最初の専用ベンチマークであるAIForge-Docを紹介する。
TruFor、DocTamper、ゼロショットGPT-4oの3つの代表検出器をベンチマークした結果、既存のメソッドはすべて大幅に劣化していることがわかった。
論文 参考訳(メタデータ) (2026-02-24T05:37:35Z) - CLUE: Non-parametric Verification from Experience via Hidden-State Clustering [64.50919789875233]
隠れアクティベーションの軌跡内の幾何的に分離可能なシグネチャとして解の正しさが符号化されていることを示す。
ClUE は LLM-as-a-judge ベースラインを一貫して上回り、候補者の再選において近代的な信頼に基づく手法に適合または超えている。
論文 参考訳(メタデータ) (2025-10-02T02:14:33Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Rethinking Image Forgery Detection via Soft Contrastive Learning and Unsupervised Clustering [27.495469888054032]
画像偽造検出は、画像内の偽造領域を検出し、発見することを目的としている。
既存の偽造検出アルゴリズムは、画素を偽造または偽造に分類するために分類問題を定式化している。
本稿では,ソフトコントラスト学習と教師なしクラスタリングに基づく,新しい,シンプルかつ極めて効果的なパラダイムであるFOCAL法を提案する。
論文 参考訳(メタデータ) (2023-08-18T05:05:30Z) - DocDiff: Document Enhancement via Residual Diffusion Models [7.972081359533047]
文書強調問題に特化して設計された拡散型フレームワークであるDocDiffを提案する。
DocDiffは2つのモジュールで構成されている: 粗い予測器(CP)と高周波数残差リファインメント(HRR)モジュール。
事前学習したDocDiffのHRRモジュールは,4.17Mのパラメータしか持たない,プラグアンドプレイで使用可能である。
論文 参考訳(メタデータ) (2023-05-06T01:41:10Z) - Deep Unrestricted Document Image Rectification [110.61517455253308]
文書画像修正のための新しい統合フレームワークDocTr++を提案する。
我々は,階層型エンコーダデコーダ構造を多スケール表現抽出・解析に適用することにより,元のアーキテクチャをアップグレードする。
実際のテストセットとメトリクスをコントリビュートして、修正品質を評価します。
論文 参考訳(メタデータ) (2023-04-18T08:00:54Z) - UDoc-GAN: Unpaired Document Illumination Correction with Background
Light Prior [128.19212716007794]
UDoc-GANは、未確認条件下での文書照明補正の問題に対処する最初のフレームワークである。
文書の環境光の特徴をまず予測する。
そして、周囲光のレベルが異なる特性により、サイクルの一貫性の制約を再定式化する。
現状の手法と比較して,文字誤り率 (CER) と編集距離 (ED) の両面で有望な性能を示す。
論文 参考訳(メタデータ) (2022-10-15T07:19:23Z) - Certified Error Control of Candidate Set Pruning for Two-Stage Relevance
Ranking [57.42241521034744]
本稿では、妥当性ランキングのための候補セットプルーニングの認証エラー制御の概念を提案する。
提案手法は,第1段階から抽出した候補集合を抽出し,第2段階の復位速度を向上する。
論文 参考訳(メタデータ) (2022-05-19T16:00:13Z) - Tune it the Right Way: Unsupervised Validation of Domain Adaptation via
Soft Neighborhood Density [125.64297244986552]
本稿では,点間の類似度分布のエントロピーを計算し,ソフト近傍の密度を測定する教師なし検証基準を提案する。
私たちの基準は、競合する検証方法よりもシンプルですが、より効果的です。
論文 参考訳(メタデータ) (2021-08-24T17:41:45Z) - Approach for Document Detection by Contours and Contrasts [0.0]
本稿では,モバイル端末上で行う任意の文書検出について考察する。
本研究では,輪郭法を改良し,競合する輪郭位置仮説を境界内と外とのコントラストに応じてランク付けする。
提案手法は,オープンなMIDV-500データセット上での未適合な最先端性能を提供し,SmartDocデータセットの最先端パフォーマンスに匹敵する結果を実証する。
論文 参考訳(メタデータ) (2020-08-06T12:44:40Z) - Can You Read Me Now? Content Aware Rectification using Angle Supervision [14.095728009592763]
本稿では,文書の修正を初めて学習したアングル・スーパービジョンを用いたコンテンツアウェア・リクティフィケーションについて述べる。
提案手法は,OCRの精度,幾何学的誤差,視覚的類似性の観点から,従来の手法を超越した手法である。
論文 参考訳(メタデータ) (2020-08-05T16:58:13Z) - Generalized Focal Loss: Learning Qualified and Distributed Bounding
Boxes for Dense Object Detection [85.53263670166304]
一段検出器は基本的に、物体検出を密度の高い分類と位置化として定式化する。
1段検出器の最近の傾向は、局所化の質を推定するために個別の予測分岐を導入することである。
本稿では, 上記の3つの基本要素, 品質推定, 分類, ローカライゼーションについて述べる。
論文 参考訳(メタデータ) (2020-06-08T07:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。