論文の概要: OpenFake: An Open Dataset and Platform Toward Real-World Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.09495v2
- Date: Mon, 06 Oct 2025 21:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:21.472742
- Title: OpenFake: An Open Dataset and Platform Toward Real-World Deepfake Detection
- Title(参考訳): OpenFake: リアルタイムディープフェイク検出に向けたオープンデータセットとプラットフォーム
- Authors: Victor Livernoche, Akshatha Arodi, Andreea Musulan, Zachary Yang, Adam Salvail, Gaétan Marceau Caron, Jean-François Godbout, Reihaneh Rabbany,
- Abstract要約: 高度なAI技術を使った合成メディアであるDeepfakesは、情報完全性に対する脅威が増大している。
提案するOpenFakeは,高リアリズムを持つ現代的な生成モデルに対してベンチマークを行うためのデータセットである。
OpenFakeでトレーニングされた検出器は、ほぼ完全な分散性能、目に見えないジェネレータへの強力な一般化、および編集済みのソーシャルメディアテストセットでの高精度を実現する。
- 参考スコア(独自算出の注目度): 6.949215801100937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfakes, synthetic media created using advanced AI techniques, pose a growing threat to information integrity, particularly in politically sensitive contexts. This challenge is amplified by the increasing realism of modern generative models, which our human perception study confirms are often indistinguishable from real images. Yet, existing deepfake detection benchmarks rely on outdated generators or narrowly scoped datasets (e.g., single-face imagery), limiting their utility for real-world detection. To address these gaps, we present OpenFake, a large politically grounded dataset specifically crafted for benchmarking against modern generative models with high realism, and designed to remain extensible through an innovative crowdsourced adversarial platform that continually integrates new hard examples. OpenFake comprises nearly four million total images: three million real images paired with descriptive captions and almost one million synthetic counterparts from state-of-the-art proprietary and open-source models. Detectors trained on OpenFake achieve near-perfect in-distribution performance, strong generalization to unseen generators, and high accuracy on a curated in-the-wild social media test set, significantly outperforming models trained on existing datasets. Overall, we demonstrate that with high-quality and continually updated benchmarks, automatic deepfake detection is both feasible and effective in real-world settings.
- Abstract(参考訳): 高度なAI技術を使った合成メディアであるDeepfakesは、特に政治的に敏感な状況において、情報の完全性に対する脅威が増大している。
この課題は、現代の生成モデルにおける現実主義の増大によって増幅され、人間の知覚研究は、実際の画像と区別できないことがしばしば確認されている。
しかし、既存のディープフェイク検出ベンチマークは、時代遅れのジェネレータや狭い範囲のデータセット(例えば、シングルフェイスイメージ)に依存しており、実世界の検出に使用を制限している。
これらのギャップに対処するため、我々は、高いリアリズムを持つ近代的な生成モデルに対してベンチマークを行うために特別に作られた、政治的基盤を持つ大規模なデータセットであるOpenFakeを紹介し、新しいハードケースを継続的に統合する革新的なクラウドソースの敵プラットフォームを通じて拡張性を維持するように設計されている。
OpenFakeは400万近い画像で構成されており、300万枚の実画像と説明文のキャプションが組み合わされ、最先端のプロプライエタリなオープンソースモデルから100万近い合成画像が合成されている。
OpenFakeでトレーニングされた検出器は、ほぼ完璧な分散性能、目に見えないジェネレータへの強力な一般化、既存のデータセットでトレーニングされたモデルよりもはるかに高い精度を実現している。
全体として、高品質で継続的に更新されたベンチマークでは、自動ディープフェイク検出が現実の環境で実現可能であり、効果的であることを示す。
関連論文リスト
- So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - SIDA: Social Media Image Deepfake Detection, Localization and Explanation with Large Multimodal Model [48.547599530927926]
ソーシャルメディア上で共有される合成画像は、広範囲の聴衆を誤解させ、デジタルコンテンツに対する信頼を損なう可能性がある。
ソーシャルメディア画像検出データセット(SID-Set)を紹介する。
本稿では,SIDA という画像深度検出,局所化,説明の枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-05T16:12:25Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive Learning [22.533225521726116]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語誘導型コントラスト学習を用いた簡易かつ効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。