論文の概要: Leveraging Failed Samples: A Few-Shot and Training-Free Framework for Generalized Deepfake Detection
- arxiv url: http://arxiv.org/abs/2508.09475v1
- Date: Wed, 13 Aug 2025 04:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.753118
- Title: Leveraging Failed Samples: A Few-Shot and Training-Free Framework for Generalized Deepfake Detection
- Title(参考訳): 欠陥サンプルの活用: 一般的なディープフェイク検出のためのわずかなショットとトレーニングフリーフレームワーク
- Authors: Shibo Yao, Renshuai Tao, Xiaolong Zheng, Chao Liang, Chunjie Zhang,
- Abstract要約: Few-shot Training-free Network (FTNet) for real-world few-shot Deepfake Detection。
FTNetは評価セットから1つの偽のサンプルのみを使用しており、トレーニングやパラメータの更新なしに、新しいサンプルが現実世界に出現し、使用するために収集できるシナリオを模倣している。
我々は、29の異なる生成モデルから生成されたAI画像の包括的分析を行い、既存の手法と比較して平均8.7%改善した新しいSoTA性能を実現する。
- 参考スコア(独自算出の注目度): 23.97926666305552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deepfake detection studies often treat unseen sample detection as a ``zero-shot" task, training on images generated by known models but generalizing to unknown ones. A key real-world challenge arises when a model performs poorly on unknown samples, yet these samples remain available for analysis. This highlights that it should be approached as a ``few-shot" task, where effectively utilizing a small number of samples can lead to significant improvement. Unlike typical few-shot tasks focused on semantic understanding, deepfake detection prioritizes image realism, which closely mirrors real-world distributions. In this work, we propose the Few-shot Training-free Network (FTNet) for real-world few-shot deepfake detection. Simple yet effective, FTNet differs from traditional methods that rely on large-scale known data for training. Instead, FTNet uses only one fake samplefrom an evaluation set, mimicking the scenario where new samples emerge in the real world and can be gathered for use, without any training or parameter updates. During evaluation, each test sample is compared to the known fake and real samples, and it is classified based on the category of the nearest sample. We conduct a comprehensive analysis of AI-generated images from 29 different generative models and achieve a new SoTA performance, with an average improvement of 8.7\% compared to existing methods. This work introduces a fresh perspective on real-world deepfake detection: when the model struggles to generalize on a few-shot sample, leveraging the failed samples leads to better performance.
- Abstract(参考訳): 最近のディープフェイク検出研究は、未知のサンプル検出を「ゼロショット」タスクとして扱うことが多く、既知のモデルによって生成されたイメージをトレーニングするが、未知のモデルに一般化することが多い。重要な現実的な課題は、モデルが未知のサンプルに対して不十分に実行されたときに発生する。しかし、これらのサンプルは分析に利用できない。これは「フェーショット」タスクとしてアプローチすべきであり、少数のサンプルを効果的に活用することで、大幅な改善につながることを強調している。
セマンティックな理解に焦点を当てた典型的ないくつかのタスクとは異なり、ディープフェイク検出は実世界の分布を忠実に反映したイメージリアリズムを優先する。
本研究では,Few-shot Training-free Network (FTNet) を提案する。
FTNetは、訓練のための大規模な既知のデータに依存する従来の方法とは異なる、シンプルだが効果的である。
その代わり、FTNetは評価セットから1つの偽のサンプルのみを使用し、トレーニングやパラメータの更新なしに、新しいサンプルが現実世界に出現し、使用するために収集できるシナリオを模倣する。
評価では,各検体を既知の偽検体および実検体と比較し,最も近い検体のカテゴリに基づいて分類する。
我々は、29の異なる生成モデルから生成されたAI画像の包括的解析を行い、既存の手法と比較して平均8.7倍の精度で新しいSoTA性能を実現する。
この研究は、実世界のディープフェイク検出について、新たな視点を導入している。モデルが数ショットのサンプルを一般化するのに苦労する場合、失敗したサンプルを活用することで、パフォーマンスが向上する。
関連論文リスト
- A Quality-Centric Framework for Generic Deepfake Detection [41.1730636042585]
汎用的なディープフェイク検出のための新しい品質中心のフレームワークを提案する。
品質評価器、低品質データ拡張モジュール、学習ペーシング戦略から構成される。
我々のフレームワークはカリキュラム学習にインスパイアされており、より難しいディープフェイクサンプルを徐々に検出できるように設計されている。
論文 参考訳(メタデータ) (2024-11-08T05:14:46Z) - Importance of Disjoint Sampling in Conventional and Transformer Models for Hyperspectral Image Classification [2.1223532600703385]
本稿では、ハイパースペクトル画像分類(HSIC)タスク上でSOTAモデルをトレーニングするための革新的な不整合サンプリング手法を提案する。
重なりのないトレーニング,検証,テストデータを分離することにより,提案手法は,トレーニングや検証中に露出していないピクセルをどの程度正確に分類できるかを,より公平に評価することができる。
この厳密な手法は、SOTAモデルの発展と、ハイパースペクトルセンサーを用いた大規模陸地マッピングへの実際の応用に欠かせない。
論文 参考訳(メタデータ) (2024-04-23T11:40:52Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Lightweight Detection of Out-of-Distribution and Adversarial Samples via
Channel Mean Discrepancy [14.103271496247551]
分類モデルによって抽出された特徴の統計を評価するためのモデル非依存距離メトリックであるChannel Mean Disrepancy (CMD)を紹介する。
本研究では, 生検試料と逆検試料よりCMD径が有意に小さいことを実験的に実証した。
予備的な結果から, 簡便かつ効果的な手法は, oodおよびadversarialサンプル検出における最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-04-23T04:15:53Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - Unseen Face Presentation Attack Detection Using Class-Specific Sparse
One-Class Multiple Kernel Fusion Regression [15.000818334408802]
本論文は、目に見えない攻撃シナリオの困難な状況下での顔提示攻撃検出に対処する。
カーネル回帰に基づく一級顔提示攻撃検出手法を開発した。
論文 参考訳(メタデータ) (2019-12-31T11:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。