論文の概要: OpenFake: An Open Dataset and Platform Toward Real-World Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.09495v2
- Date: Mon, 06 Oct 2025 21:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:21.472742
- Title: OpenFake: An Open Dataset and Platform Toward Real-World Deepfake Detection
- Title(参考訳): OpenFake: リアルタイムディープフェイク検出に向けたオープンデータセットとプラットフォーム
- Authors: Victor Livernoche, Akshatha Arodi, Andreea Musulan, Zachary Yang, Adam Salvail, Gaétan Marceau Caron, Jean-François Godbout, Reihaneh Rabbany,
- Abstract要約: 高度なAI技術を使った合成メディアであるDeepfakesは、情報完全性に対する脅威が増大している。
提案するOpenFakeは,高リアリズムを持つ現代的な生成モデルに対してベンチマークを行うためのデータセットである。
OpenFakeでトレーニングされた検出器は、ほぼ完全な分散性能、目に見えないジェネレータへの強力な一般化、および編集済みのソーシャルメディアテストセットでの高精度を実現する。
- 参考スコア(独自算出の注目度): 6.949215801100937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfakes, synthetic media created using advanced AI techniques, pose a growing threat to information integrity, particularly in politically sensitive contexts. This challenge is amplified by the increasing realism of modern generative models, which our human perception study confirms are often indistinguishable from real images. Yet, existing deepfake detection benchmarks rely on outdated generators or narrowly scoped datasets (e.g., single-face imagery), limiting their utility for real-world detection. To address these gaps, we present OpenFake, a large politically grounded dataset specifically crafted for benchmarking against modern generative models with high realism, and designed to remain extensible through an innovative crowdsourced adversarial platform that continually integrates new hard examples. OpenFake comprises nearly four million total images: three million real images paired with descriptive captions and almost one million synthetic counterparts from state-of-the-art proprietary and open-source models. Detectors trained on OpenFake achieve near-perfect in-distribution performance, strong generalization to unseen generators, and high accuracy on a curated in-the-wild social media test set, significantly outperforming models trained on existing datasets. Overall, we demonstrate that with high-quality and continually updated benchmarks, automatic deepfake detection is both feasible and effective in real-world settings.
- Abstract(参考訳): 高度なAI技術を使った合成メディアであるDeepfakesは、特に政治的に敏感な状況において、情報の完全性に対する脅威が増大している。
この課題は、現代の生成モデルにおける現実主義の増大によって増幅され、人間の知覚研究は、実際の画像と区別できないことがしばしば確認されている。
しかし、既存のディープフェイク検出ベンチマークは、時代遅れのジェネレータや狭い範囲のデータセット(例えば、シングルフェイスイメージ)に依存しており、実世界の検出に使用を制限している。
これらのギャップに対処するため、我々は、高いリアリズムを持つ近代的な生成モデルに対してベンチマークを行うために特別に作られた、政治的基盤を持つ大規模なデータセットであるOpenFakeを紹介し、新しいハードケースを継続的に統合する革新的なクラウドソースの敵プラットフォームを通じて拡張性を維持するように設計されている。
OpenFakeは400万近い画像で構成されており、300万枚の実画像と説明文のキャプションが組み合わされ、最先端のプロプライエタリなオープンソースモデルから100万近い合成画像が合成されている。
OpenFakeでトレーニングされた検出器は、ほぼ完璧な分散性能、目に見えないジェネレータへの強力な一般化、既存のデータセットでトレーニングされたモデルよりもはるかに高い精度を実現している。
全体として、高品質で継続的に更新されたベンチマークでは、自動ディープフェイク検出が現実の環境で実現可能であり、効果的であることを示す。
関連論文リスト
- Beyond Artifacts: Real-Centric Envelope Modeling for Reliable AI-Generated Image Detection [29.26836532055224]
既存の検出器は、しばしば発電機固有のアーティファクトに過度に適合し、現実世界の劣化に敏感である。
実画像のロバストな分布をモデル化する手法として,Real-centric Envelope Modeling (REM)を提案する。
REMは最先端の手法よりも平均7.5%向上し、特に高度に劣化したRealChainベンチマークにおける例外的な一般化を維持している。
論文 参考訳(メタデータ) (2025-12-24T04:41:04Z) - Bridging the Gap Between Ideal and Real-world Evaluation: Benchmarking AI-Generated Image Detection in Challenging Scenarios [54.07895223545793]
本稿では,実世界ロバストネスデータセット(RRDataset)を導入し,3次元にわたる検出モデルの包括的評価を行う。
RRDatasetには7つの主要なシナリオの高品質なイメージが含まれている。
我々はRRDataset上で17の検出器と10の視覚言語モデル(VLM)をベンチマークし、大規模な人間実験を行った。
論文 参考訳(メタデータ) (2025-09-11T06:15:52Z) - So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - Is Artificial Intelligence Generated Image Detection a Solved Problem? [16.9828631287303]
AIGIBenchは、最先端AIGI検出器の堅牢性と一般化能力を厳格に評価するために設計されたベンチマークである。
マルチソースの一般化、画像劣化に対する堅牢性、データ拡張に対する敏感性、テスト時間前処理の影響の4つのコアタスクを通じて、現実世界の課題をシミュレートする。
ソーシャルメディアやAIアートプラットフォームから収集された実世界のサンプルとともに、高度な画像生成技術と広く採用されている画像生成技術の両方にまたがる、23の多様なフェイクイメージサブセットが含まれている。
論文 参考訳(メタデータ) (2025-05-18T10:00:39Z) - TrueFake: A Real World Case Dataset of Last Generation Fake Images also Shared on Social Networks [0.9870503213194768]
我々は600,000画像の大規模ベンチマークデータセットであるTrueFakeを紹介する。
このデータセットは、非常に現実的で困難な条件下で、最先端の偽画像検出器の厳密な評価を可能にする。
ソーシャルメディアの共有が検出性能に与える影響を分析し、現在最も効果的な検出およびトレーニング戦略を特定する。
論文 参考訳(メタデータ) (2025-04-29T11:33:52Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Spot the Fake: Large Multimodal Model-Based Synthetic Image Detection with Artifact Explanation [44.246370685732444]
本稿では,一般的な合成画像とDeepFake検出タスクの両方を対象とした,大規模マルチモーダルモデルであるFakeVLMを紹介する。
FakeVLMは、本物と偽のイメージを区別し、画像アーティファクトの明確な自然言語説明を提供する。
また、FakeClueは、7つのカテゴリにまたがる10万以上の画像を含む包括的なデータセットで、自然言語のきめ細かいアーティファクトのヒントで注釈付けされています。
論文 参考訳(メタデータ) (2025-03-19T05:14:44Z) - SIDA: Social Media Image Deepfake Detection, Localization and Explanation with Large Multimodal Model [48.547599530927926]
ソーシャルメディア上で共有される合成画像は、広範囲の聴衆を誤解させ、デジタルコンテンツに対する信頼を損なう可能性がある。
ソーシャルメディア画像検出データセット(SID-Set)を紹介する。
本稿では,SIDA という画像深度検出,局所化,説明の枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-05T16:12:25Z) - Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive Learning [22.533225521726116]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語誘導型コントラスト学習を用いた簡易かつ効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。