論文の概要: SAGA: Source Attribution of Generative AI Videos
- arxiv url: http://arxiv.org/abs/2511.12834v1
- Date: Sun, 16 Nov 2025 23:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.569754
- Title: SAGA: Source Attribution of Generative AI Videos
- Title(参考訳): SAGA: ジェネレーティブAIビデオのソース属性
- Authors: Rohit Kundu, Vishal Mohanty, Hao Xiong, Shan Jia, Athula Balachandran, Amit K. Roy-Chowdhury,
- Abstract要約: 我々は、AI生成ビデオソース属性の必要性を大規模に解決する最初の包括的なフレームワークであるSAGA(Source Attribution of Generative AI video)を紹介する。
信頼性、生成タスク(T2V/I2Vなど)、モデルバージョン、開発チーム、正確なジェネレータの5つのレベルにまたがって、よりリッチな法医学的な洞察を提供する。
- 参考スコア(独自算出の注目度): 23.217701516122048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of generative AI has led to hyper-realistic synthetic videos, escalating misuse risks and outstripping binary real/fake detectors. We introduce SAGA (Source Attribution of Generative AI videos), the first comprehensive framework to address the urgent need for AI-generated video source attribution at a large scale. Unlike traditional detection, SAGA identifies the specific generative model used. It uniquely provides multi-granular attribution across five levels: authenticity, generation task (e.g., T2V/I2V), model version, development team, and the precise generator, offering far richer forensic insights. Our novel video transformer architecture, leveraging features from a robust vision foundation model, effectively captures spatio-temporal artifacts. Critically, we introduce a data-efficient pretrain-and-attribute strategy, enabling SAGA to achieve state-of-the-art attribution using only 0.5\% of source-labeled data per class, matching fully supervised performance. Furthermore, we propose Temporal Attention Signatures (T-Sigs), a novel interpretability method that visualizes learned temporal differences, offering the first explanation for why different video generators are distinguishable. Extensive experiments on public datasets, including cross-domain scenarios, demonstrate that SAGA sets a new benchmark for synthetic video provenance, providing crucial, interpretable insights for forensic and regulatory applications.
- Abstract(参考訳): 生成AIの普及は、超現実的な合成ビデオ、誤用リスクのエスカレート、バイナリリアル/フェイク検出器のエクストリッピングにつながった。
我々は、AI生成ビデオソース属性の緊急的ニーズに対応するための、SAGA(Source Attribution of Generative AI video)を大規模に導入する。
従来の検出とは異なり、SAGAは使用する特定の生成モデルを特定する。
信頼性、生成タスク(例:T2V/I2V)、モデルバージョン、開発チーム、正確なジェネレータの5つのレベルにまたがって、よりリッチな法医学的な洞察を提供する。
我々の新しいビデオトランスフォーマーアーキテクチャは、堅牢な視覚基盤モデルの特徴を活用し、時空間的アーティファクトを効果的にキャプチャする。
批判的なことに,SAGAは,クラスごとのソースラベル付きデータの0.55%しか利用せず,教師付き性能に適合する,最先端の属性を達成できる,データ効率の高いプレトレイン・アンド・アトリビュート戦略を導入している。
さらに,学習した時間差を可視化する新しい解釈可能性手法であるT-Sigsを提案する。
クロスドメインシナリオを含む公開データセットに関する大規模な実験は、SAGAが合成ビデオの証明のための新しいベンチマークを設定し、法医学および規制のアプリケーションにとって重要な、解釈可能な洞察を提供することを示した。
関連論文リスト
- Leveraging Pre-Trained Visual Models for AI-Generated Video Detection [54.88903878778194]
ビデオ生成の分野はDeepFakesを超えて進歩し、ジェネリックコンテンツでAI生成ビデオを検出する方法が緊急に必要になった。
本稿では,事前学習した視覚モデルを用いて,実写映像と実写映像を区別する手法を提案する。
提案手法は, 平均90%以上で高い検出精度を達成し, その有効性を裏付けるものである。
論文 参考訳(メタデータ) (2025-07-17T15:36:39Z) - Seeing What Matters: Generalizable AI-generated Video Detection with Forensic-Oriented Augmentation [31.737159092430108]
我々は、異なる生成的アーキテクチャを研究し、バイアスがなく、障害に対して堅牢で、モデル間で共有される差別的特徴を探索し識別する。
本稿では,ウェーブレット分解に基づく新たなデータ拡張戦略を導入し,より関連する法医学的手がかりを活用するために,特定の周波数関連帯域を置き換える。
本手法は最先端検出器よりも精度が向上し, 非常に最近の生成モデルにおいても優れた結果が得られる。
論文 参考訳(メタデータ) (2025-06-20T07:36:59Z) - DAVID-XR1: Detecting AI-Generated Videos with Explainable Reasoning [58.70446237944036]
DAVID-Xは、AI生成ビデオに詳細な欠陥レベル、時間空間アノテーションと有理書を組み合わせた最初のデータセットである。
DAVID-XR1は、視覚的推論の解釈可能な連鎖を提供するために設計されたビデオ言語モデルである。
以上の結果から,AI生成ビデオコンテンツの信頼性確認のための説明可能な検出手法が期待できることを示す。
論文 参考訳(メタデータ) (2025-06-13T13:39:53Z) - BusterX: MLLM-Powered AI-Generated Video Forgery Detection and Explanation [77.55074597806035]
GenBuster-200Kは、200Kの高解像度ビデオクリップを備えた、大規模で高品質なAI生成ビデオデータセットである。
BusterXは、マルチモーダル大言語モデル(MLLM)と強化学習を活用した、AI生成のビデオ検出および説明フレームワークである。
論文 参考訳(メタデータ) (2025-05-19T02:06:43Z) - Advance Fake Video Detection via Vision Transformers [0.9035379689195373]
Vision Transformer (ViT)ベースの偽画像検出と、このアイデアをビデオに拡張する。
検出性能を高めるために,VT埋め込みを時間とともに効果的に統合するオリジナルの%革新的フレームワークを提案する。
提案手法は,新しい,大規模で多様なビデオデータセットにまたがる,有望な精度,一般化,数ショット学習能力を示す。
論文 参考訳(メタデータ) (2025-04-29T11:51:07Z) - InTraGen: Trajectory-controlled Video Generation for Object Interactions [100.79494904451246]
InTraGenは、オブジェクトインタラクションシナリオのトラジェクトリベースの生成を改善するパイプラインである。
その結果,視覚的忠実度と定量的性能の両面での改善が示された。
論文 参考訳(メタデータ) (2024-11-25T14:27:50Z) - AI-Generated Video Detection via Spatio-Temporal Anomaly Learning [2.1210527985139227]
ユーザは、偽情報を拡散するために、既存のないビデオを簡単に作成できる。
モデルトレーニングと評価のためのベンチマークとして,大規模ビデオデータセット(GVD)を構築した。
論文 参考訳(メタデータ) (2024-03-25T11:26:18Z) - Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation [72.90144343056227]
ビデオ理解タスクのためのテキスト・ツー・ビデオ拡散モデル(T2V)から生成した視覚的表現について検討する。
固定されたT2Vモデル上に構築された専用コンポーネントを備えた新しいフレームワーク「VD-IT」を紹介する。
我々のVD-ITは、既存の最先端手法を超越して、非常に競争力のある結果を得る。
論文 参考訳(メタデータ) (2024-03-18T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。