論文の概要: SimLBR: Learning to Detect Fake Images by Learning to Detect Real Images
- arxiv url: http://arxiv.org/abs/2602.20412v1
- Date: Mon, 23 Feb 2026 23:22:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.549315
- Title: SimLBR: Learning to Detect Fake Images by Learning to Detect Real Images
- Title(参考訳): SimLBR: 実画像検出学習によるフェイク画像検出学習
- Authors: Aayush Dhakal, Subash Khanal, Srikumar Sastry, Jacob Arndt, Philipe Ambrozio Dias, Dalton Lunga, Nathan Jacobs,
- Abstract要約: 我々は、LBR(Latent Blending Regularization)を用いたフェイク画像検出のためのシンプルで効率的なフレームワークであるSimLBRを提案する。
我々の手法はクロスジェネレータの一般化を著しく改善し、チャメレオンベンチマークの精度+24.85%、リコール+69.62%を実現した。
すべてのコードとモデルは、HuggingFaceとGitHubでリリースされる。
- 参考スコア(独自算出の注目度): 19.262732315838107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative models has made the detection of AI-generated images a critical challenge for both research and society. Recent works have shown that most state-of-the-art fake image detection methods overfit to their training data and catastrophically fail when evaluated on curated hard test sets with strong distribution shifts. In this work, we argue that it is more principled to learn a tight decision boundary around the real image distribution and treat the fake category as a sink class. To this end, we propose SimLBR, a simple and efficient framework for fake image detection using Latent Blending Regularization (LBR). Our method significantly improves cross-generator generalization, achieving up to +24.85\% accuracy and +69.62\% recall on the challenging Chameleon benchmark. SimLBR is also highly efficient, training orders of magnitude faster than existing approaches. Furthermore, we emphasize the need for reliability-oriented evaluation in fake image detection, introducing risk-adjusted metrics and worst-case estimates to better assess model robustness. All code and models will be released on HuggingFace and GitHub.
- Abstract(参考訳): 生成モデルの急速な進歩により、AI生成画像の検出は、研究と社会の両方にとって重要な課題となっている。
最近の研究によると、ほとんどの最先端の偽画像検出方法はトレーニングデータに過度に適合し、強い分布シフトを持つ硬化したハードテストセットで評価すると破滅的に失敗する。
本研究では,実画像の分布に関する厳密な決定境界を学習し,偽のカテゴリをシンククラスとして扱うことがより原則であると主張する。
そこで本研究では,LBR(Latent Blending Regularization)を用いた偽画像検出のための簡易かつ効率的なフレームワークであるSimLBRを提案する。
提案手法はクロスジェネレータの一般化を大幅に改善し,チャメレオンベンチマークの精度+24.85\%,リコール+69.62\%を実現した。
SimLBRも非常に効率的で、既存のアプローチよりも格段に高速にトレーニングできる。
さらに、偽画像検出における信頼性指向評価の必要性を強調し、リスク調整されたメトリクスを導入し、モデルロバスト性を評価するために最悪の評価を行う。
すべてのコードとモデルは、HuggingFaceとGitHubでリリースされる。
関連論文リスト
- RealStats: A Rigorous Real-Only Statistical Framework for Fake Image Detection [3.4104142774745996]
本稿では,実画像に対して解釈可能な確率スコアを生成することに焦点を当てた,厳密で統計的に基盤付けられた偽画像検出フレームワークを提案する。
このフレームワークは汎用的でフレキシブルで、トレーニング不要で、多様な、進化する設定にわたって堅牢なフェイクイメージ検出に適している。
論文 参考訳(メタデータ) (2026-01-26T19:11:31Z) - ThinkFake: Reasoning in Multimodal Large Language Models for AI-Generated Image Detection [51.93101033997245]
AI生成画像のリアリズムの増大は、誤情報やプライバシー侵害に対する深刻な懸念を引き起こしている。
我々は、AI生成画像検出のための新しい推論に基づく一般化可能なフレームワークThinkFakeを提案する。
我々は、ThinkFakeがGenImageベンチマークで最先端の手法より優れており、挑戦的なLOKIベンチマークで強力なゼロショットの一般化を示すことを示す。
論文 参考訳(メタデータ) (2025-09-24T07:34:09Z) - Practical Manipulation Model for Robust Deepfake Detection [55.2480439325792]
画像超解像領域において,より現実的な劣化モデルを構築した。
擬似フェイクの空間を、ポアソンブレンディング、より多様なマスク、ジェネレータアーティファクト、およびイントラクタを用いて拡張する。
DFDCデータセットとDFDCPデータセットでは、それぞれ3.51%$と6.21%$AUCが明らかに増加した。
論文 参考訳(メタデータ) (2025-06-05T15:06:16Z) - PDA: Generalizable Detection of AI-Generated Images via Post-hoc Distribution Alignment [16.98090845687867]
ポストホック分布アライメント(PDA)は、AI生成画像の一般化可能な検出のための新しいアプローチである。
我々の研究は、現実の偽画像検出のためのフレキシブルで効果的なソリューションを提供し、検出システムの一般化能力を向上させる。
論文 参考訳(メタデータ) (2025-02-15T13:55:34Z) - A Bias-Free Training Paradigm for More General AI-generated Image Detection [15.421102443599773]
良く設計された法医学的検知器は、データバイアスを反映するのではなく、生成物固有のアーティファクトを検出する必要がある。
本稿では,実画像から偽画像を生成する,バイアスのない学習パラダイムであるB-Freeを提案する。
我々は,最先端検出器の一般化とロバスト性の両方において有意な改善が認められた。
論文 参考訳(メタデータ) (2024-12-23T15:54:32Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。