論文の概要: Fit for Purpose? Deepfake Detection in the Real World
- arxiv url: http://arxiv.org/abs/2510.16556v2
- Date: Thu, 30 Oct 2025 16:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.464046
- Title: Fit for Purpose? Deepfake Detection in the Real World
- Title(参考訳): 目的のフィット : 現実世界におけるディープフェイク検出
- Authors: Guangyu Lin, Li Lin, Christina P. Walker, Daniel S. Schiff, Shu Hu,
- Abstract要約: 本稿では,政治ディープフェイクス事件データベースに基づく最初の体系的ベンチマークを紹介する。
本研究は, 学術, 政府, 産業にまたがる最先端のディープフェイク検出器の系統的評価を含む。
- 参考スコア(独自算出の注目度): 9.009097268891717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of AI-generated content, driven by advances in generative adversarial networks, diffusion models, and multimodal large language models, has made the creation and dissemination of synthetic media effortless, heightening the risks of misinformation, particularly political deepfakes that distort truth and undermine trust in political institutions. In turn, governments, research institutions, and industry have strongly promoted deepfake detection initiatives as solutions. Yet, most existing models are trained and validated on synthetic, laboratory-controlled datasets, limiting their generalizability to the kinds of real-world political deepfakes circulating on social platforms that affect the public. In this work, we introduce the first systematic benchmark based on the Political Deepfakes Incident Database, a curated collection of real-world political deepfakes shared on social media since 2018. Our study includes a systematic evaluation of state-of-the-art deepfake detectors across academia, government, and industry. We find that the detectors from academia and government perform relatively poorly. While paid detection tools achieve relatively higher performance than free-access models, all evaluated detectors struggle to generalize effectively to authentic political deepfakes, and are vulnerable to simple manipulations, especially in the video domain. Results urge the need for politically contextualized deepfake detection frameworks to better safeguard the public in real-world settings.
- Abstract(参考訳): 生成的敵ネットワーク、拡散モデル、多モーダル大言語モデルの進歩によって引き起こされたAI生成コンテンツの急激な拡散は、合成メディアの作成と普及を困難にし、誤情報、特に政治的ディープフェイクのリスクを高め、真実を歪め、政治機関の信頼を損なう。
その代わり、政府、研究機関、産業は、ディープフェイク検出イニシアチブを解決策として強く推進してきた。
しかし、既存のモデルのほとんどは、人工的な、実験室が管理するデータセットで訓練され、検証されており、一般大衆に影響を与える社会プラットフォームに流通する現実世界の政治ディープフェイクに、その一般化可能性を制限する。
本研究では,2018年からソーシャルメディア上で共有されている実世界の政治ディープフェイクの収集である政治ディープフェイクインシデントデータベースに基づく,最初の体系的ベンチマークを紹介する。
本研究は, 学術, 政府, 産業にまたがる最先端のディープフェイク検出器の系統的評価を含む。
アカデミックと政府による検出器は, 比較的低性能であることがわかった。
有償検出ツールは、フリーアクセスモデルよりも比較的高い性能を達成するが、評価された検出器はすべて、真の政治的ディープフェイクを効果的に一般化するのに苦労し、特にビデオ領域において、単純な操作に弱い。
その結果、現実の環境での公衆の安全を守るために、政治的に文脈化されたディープフェイク検出フレームワークの必要性が示唆された。
関連論文リスト
- OpenFake: An Open Dataset and Platform Toward Real-World Deepfake Detection [6.949215801100937]
高度なAI技術を使った合成メディアであるDeepfakesは、情報完全性に対する脅威が増大している。
提案するOpenFakeは,高リアリズムを持つ現代的な生成モデルに対してベンチマークを行うためのデータセットである。
OpenFakeでトレーニングされた検出器は、ほぼ完全な分散性能、目に見えないジェネレータへの強力な一般化、および編集済みのソーシャルメディアテストセットでの高精度を実現する。
論文 参考訳(メタデータ) (2025-09-11T14:34:22Z) - SocialDF: Benchmark Dataset and Detection Model for Mitigating Harmful Deepfake Content on Social Media Platforms [0.13194391758295113]
ソーシャルメディアプラットフォーム上での現実的なディープフェイク課題を反映した、キュレートされたデータセットであるSocialDFを紹介した。
このデータセットは、さまざまなオンラインエコシステムから得られた高忠実度ディープフェイクを含んでいる。
本稿では,音声認識,自動音声書き起こし,マルチエージェントLPMパイプラインを組み合わせた新しい多要素検出手法を提案する。
論文 参考訳(メタデータ) (2025-06-05T19:39:28Z) - Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Merging AI Incidents Research with Political Misinformation Research: Introducing the Political Deepfakes Incidents Database [0.0]
このプロジェクトは、政治における生成的AIの台頭、害に対処するための継続的な政策努力、そしてAIインシデントと政治コミュニケーション研究を結びつける必要性によって推進されている。
このデータベースには政治的ディープフェイクの内容、メタデータ、および政治科学、公共政策、コミュニケーション、誤情報研究から引き出された研究者による記述が含まれている。
これは、主要な政治的人物や出来事を特徴とするような、政治的ディープフェイクの流行、傾向、および影響を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-09-05T19:24:38Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - Examining the Implications of Deepfakes for Election Integrity [9.129491613898962]
AI生成コンテンツ、特に「ディープフェイク」技術を使って、大規模に偽情報操作をローンチするのは、より安価になってきている。
本稿では、政治におけるディープフェイクの脅威について論じ、異なるタイプのディープフェイク生成手法に基づくモデル仕様を強調し、既存の検出手法の有効性の評価に寄与する。
我々は,既存の検知機構の限界を強調し,ディープフェイクの課題に対処するために政策や規制が必要な分野について議論する。
論文 参考訳(メタデータ) (2024-06-20T13:15:54Z) - Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。