論文の概要: SynthGuard: An Open Platform for Detecting AI-Generated Multimedia with Multimodal LLMs
- arxiv url: http://arxiv.org/abs/2511.12404v1
- Date: Sun, 16 Nov 2025 00:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.021666
- Title: SynthGuard: An Open Platform for Detecting AI-Generated Multimedia with Multimodal LLMs
- Title(参考訳): SynthGuard:マルチモーダルLLMによるAI生成マルチメディア検出のためのオープンプラットフォーム
- Authors: Shail Desai, Aditya Pawar, Li Lin, Xin Wang, Shu Hu,
- Abstract要約: 我々は,AI生成マルチメディアを検出し解析するための,オープンでユーザフレンドリなプラットフォームであるSynthGuardを紹介する。
SynthGuardは、説明可能な推論、統合イメージとオーディオのサポート、および研究者、教育者、一般大衆に法医学的分析をアクセスできるようにするインタラクティブインターフェースを提供する。
- 参考スコア(独自算出の注目度): 10.482810648807337
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) has made it possible for anyone to create images, audio, and video with unprecedented ease, enriching education, communication, and creative expression. At the same time, the rapid rise of AI-generated media has introduced serious risks, including misinformation, identity misuse, and the erosion of public trust as synthetic content becomes increasingly indistinguishable from real media. Although deepfake detection has advanced, many existing tools remain closed-source, limited in modality, or lacking transparency and educational value, making it difficult for users to understand how detection decisions are made. To address these gaps, we introduce SynthGuard, an open, user-friendly platform for detecting and analyzing AI-generated multimedia using both traditional detectors and multimodal large language models (MLLMs). SynthGuard provides explainable inference, unified image and audio support, and an interactive interface designed to make forensic analysis accessible to researchers, educators, and the public. The SynthGuard platform is available at: https://in-engr-nova.it.purdue.edu/
- Abstract(参考訳): 人工知能(AI)は、誰もが前代未聞の簡単さで画像、オーディオ、ビデオを作成し、教育、コミュニケーション、創造的な表現を豊かにすることを可能にする。
同時に、AI生成メディアの急速な増加は、誤情報、アイデンティティの誤用、および合成コンテンツとしての公衆信頼の侵食といった深刻なリスクを現実のメディアと区別できないものにしている。
ディープフェイク検出は進歩しているが、既存のツールの多くはクローズドソースであり、モダリティに制限があり、透明性と教育的価値が欠如している。
このギャップに対処するために,従来の検出器とマルチモーダル大言語モデル(MLLM)を用いてAI生成マルチメディアを検出し解析するための,オープンでユーザフレンドリなプラットフォームであるSynthGuardを紹介した。
SynthGuardは、説明可能な推論、統合イメージとオーディオのサポート、および研究者、教育者、一般大衆に法医学的分析をアクセスできるようにするインタラクティブインターフェースを提供する。
SynthGuardプラットフォームは以下の通りである。
関連論文リスト
- Towards Unified Multimodal Misinformation Detection in Social Media: A Benchmark Dataset and Baseline [56.790045049514326]
詐欺の2つの主要な形態は、人造誤報とAI生成コンテンツである。
両形態の偽造を扱うためのフレームワークであるUMFDet(Unified Multimodal Fake Content Detection)を提案する。
UMFDetは、両方の誤情報型に対して堅牢で一貫したパフォーマンスを実現し、特殊ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-09-30T09:26:32Z) - BusterX++: Towards Unified Cross-Modal AI-Generated Content Detection and Explanation with MLLM [12.349038994581415]
合成メディアのクロスモーダル検出と説明のための新しいフレームワークである textbfBusterX++ を紹介する。
本手法は,冷間開始を排除した高度強化学習(RL)ポストトレーニング戦略を取り入れたものである。
textbfGenBuster++は、最先端の画像とビデオ生成技術を利用したクロスモーダルなベンチマークである。
論文 参考訳(メタデータ) (2025-07-19T14:05:33Z) - OpenS2S: Advancing Fully Open-Source End-to-End Empathetic Large Speech Language Model [59.02418683148991]
我々は,共感型音声対話を実現するために設計された,完全にオープンソースで透明でエンドツーエンドのLSLMであるOpenS2Sを提案する。
我々の共感型音声テキストモデルBLSP-Emoに基づいて、OpenS2Sは低レイテンシ音声生成を実現するためにストリーミングインターリーブデコードアーキテクチャを用いる。
大規模言語モデルを利用して共感的コンテンツを生成し,テキスト音声システムを制御することにより,多言語多言語多様度を有するスケーラブルな学習コーパスを構築する。
論文 参考訳(メタデータ) (2025-07-07T16:31:37Z) - SocialDF: Benchmark Dataset and Detection Model for Mitigating Harmful Deepfake Content on Social Media Platforms [0.13194391758295113]
ソーシャルメディアプラットフォーム上での現実的なディープフェイク課題を反映した、キュレートされたデータセットであるSocialDFを紹介した。
このデータセットは、さまざまなオンラインエコシステムから得られた高忠実度ディープフェイクを含んでいる。
本稿では,音声認識,自動音声書き起こし,マルチエージェントLPMパイプラインを組み合わせた新しい多要素検出手法を提案する。
論文 参考訳(メタデータ) (2025-06-05T19:39:28Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - A Multimodal Framework for Deepfake Detection [0.0]
AIを使って合成メディアを作るDeepfakesは、ビデオやオーディオを説得力を持って修正して、現実を正しく表現する。
我々の研究は、革新的なマルチモーダルアプローチを通じて、ディープフェイクの重要な問題に対処する。
枠組みは視覚的・聴覚的分析を併用し,精度は94%であった。
論文 参考訳(メタデータ) (2024-10-04T14:59:10Z) - All-for-One and One-For-All: Deep learning-based feature fusion for
Synthetic Speech Detection [18.429817510387473]
近年のディープラーニングとコンピュータビジョンの進歩により、マルチメディアコンテンツの合成と偽造がこれまで以上に容易にできるようになった。
本稿では,合成音声検出タスクについて文献で提案する3つの特徴セットについて考察し,それらと融合するモデルを提案する。
このシステムは異なるシナリオとデータセットでテストされ、反法医学的攻撃に対する堅牢性とその一般化能力を証明する。
論文 参考訳(メタデータ) (2023-07-28T13:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。