論文の概要: OpenFake: An Open Dataset and Platform Toward Large-Scale Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.09495v1
- Date: Thu, 11 Sep 2025 14:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.423007
- Title: OpenFake: An Open Dataset and Platform Toward Large-Scale Deepfake Detection
- Title(参考訳): OpenFake: 大規模ディープフェイク検出に向けたオープンデータセットとプラットフォーム
- Authors: Victor Livernoche, Akshatha Arodi, Andreea Musulan, Zachary Yang, Adam Salvail, Gaétan Marceau Caron, Jean-François Godbout, Reihaneh Rabbany,
- Abstract要約: 高度なAI技術を用いた合成メディアであるDeepfakesは、誤情報の拡散を激化させている。
本稿では,現代の生成モデルに対する検出のベンチマークを行うための包括的データセットを提案する。
我々は、参加者が挑戦的な合成画像を生成し、提出するインセンティブを与える、革新的なクラウドソース型対向プラットフォームを導入する。
- 参考スコア(独自算出の注目度): 6.949215801100937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfakes, synthetic media created using advanced AI techniques, have intensified the spread of misinformation, particularly in politically sensitive contexts. Existing deepfake detection datasets are often limited, relying on outdated generation methods, low realism, or single-face imagery, restricting the effectiveness for general synthetic image detection. By analyzing social media posts, we identify multiple modalities through which deepfakes propagate misinformation. Furthermore, our human perception study demonstrates that recently developed proprietary models produce synthetic images increasingly indistinguishable from real ones, complicating accurate identification by the general public. Consequently, we present a comprehensive, politically-focused dataset specifically crafted for benchmarking detection against modern generative models. This dataset contains three million real images paired with descriptive captions, which are used for generating 963k corresponding high-quality synthetic images from a mix of proprietary and open-source models. Recognizing the continual evolution of generative techniques, we introduce an innovative crowdsourced adversarial platform, where participants are incentivized to generate and submit challenging synthetic images. This ongoing community-driven initiative ensures that deepfake detection methods remain robust and adaptive, proactively safeguarding public discourse from sophisticated misinformation threats.
- Abstract(参考訳): 高度なAI技術を使って作られた合成メディアであるDeepfakesは、特に政治的に敏感な状況において、誤情報の普及を強めている。
既存のディープフェイク検出データセットは、古い生成方法、低リアリズム、単一顔画像に依存し、一般的な合成画像検出の有効性を制限するため、しばしば制限される。
ソーシャルメディアの投稿を分析することで、ディープフェイクが誤情報を伝達する複数のモダリティを識別する。
さらに,本研究では,最近開発されたプロプライエタリモデルにより,現実と区別できない合成画像が生成され,一般大衆による正確な識別が複雑化していることを示す。
その結果、現代の生成モデルに対する検出のベンチマークに特化して、包括的で政治的に焦点を絞ったデータセットが提示された。
このデータセットには、記述的なキャプションと組み合わせた300万の実画像が含まれており、プロプライエタリなモデルとオープンソースモデルの混合から、高品質な合成画像を生成するのに使用される。
生成技術の継続的な進化を認識し,参加者が挑戦的な合成画像の生成と提出にインセンティブを与える,革新的なクラウドソース型対向プラットフォームを導入する。
このコミュニティ主導のイニシアチブは、ディープフェイクの検出方法が堅牢で適応的であり、高度な誤報の脅威から公衆の言論を積極的に保護することを保証する。
関連論文リスト
- So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - SIDA: Social Media Image Deepfake Detection, Localization and Explanation with Large Multimodal Model [48.547599530927926]
ソーシャルメディア上で共有される合成画像は、広範囲の聴衆を誤解させ、デジタルコンテンツに対する信頼を損なう可能性がある。
ソーシャルメディア画像検出データセット(SID-Set)を紹介する。
本稿では,SIDA という画像深度検出,局所化,説明の枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-05T16:12:25Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive Learning [22.533225521726116]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語誘導型コントラスト学習を用いた簡易かつ効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。