論文の概要: Video Deepfake Abuse: How Company Choices Predictably Shape Misuse Patterns
- arxiv url: http://arxiv.org/abs/2512.11815v1
- Date: Wed, 26 Nov 2025 18:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.688519
- Title: Video Deepfake Abuse: How Company Choices Predictably Shape Misuse Patterns
- Title(参考訳): ビデオの「Deepfake Abuse」:企業選択の仕方
- Authors: Max Kamachee, Stephen Casper, Michelle L. Ding, Rui-Jie Yew, Anka Reuel, Stella Biderman, Dylan Hadfield-Menell,
- Abstract要約: 我々は、少数のオープンウェイトなAIビデオ生成モデルが、ビデオリアリスティックAIG-NCIIビデオ生成の主要なツールとなっているかを分析する。
有能なビデオ生成モデルの重みをオープンにリリースした開発者は、下流の害を軽減できると結論付けている。
- 参考スコア(独自算出の注目度): 19.641521488247996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2022, AI image generators crossed a key threshold, enabling much more efficient and dynamic production of photorealistic deepfake images than before. This enabled opportunities for creative and positive uses of these models. However, it also enabled unprecedented opportunities for the low-effort creation of AI-generated non-consensual intimate imagery (AIG-NCII), including AI-generated child sexual abuse material (AIG-CSAM). Empirically, these harms were principally enabled by a small number of models that were trained on web data with pornographic content, released with open weights, and insufficiently safeguarded. In this paper, we observe ways in which the same patterns are emerging with video generation models in 2025. Specifically, we analyze how a small number of open-weight AI video generation models have become the dominant tools for videorealistic AIG-NCII video generation. We then analyze the literature on model safeguards and conclude that (1) developers who openly release the weights of capable video generation models without appropriate data curation and/or post-training safeguards foreseeably contribute to mitigatable downstream harm, and (2) model distribution platforms that do not proactively moderate individual misuse or models designed for AIG-NCII foreseeably amplify this harm. While there are no perfect defenses against AIG-NCII and AIG-CSAM from open-weight AI models, we argue that risk management by model developers and distributors, informed by emerging safeguard techniques, will substantially affect the future ease of creating AIG-NCII and AIG-CSAM with generative AI video tools.
- Abstract(参考訳): 2022年、AI画像生成装置は重要なしきい値を越え、より効率的でダイナミックなフォトリアリスティックなディープフェイク画像の生成を可能にした。
これにより、これらのモデルの創造的でポジティブな利用が可能となった。
しかし、AI生成された子供性虐待物質(AIG-CSAM)を含む、AI生成された非合意的親密なイメージ(AIG-NCII)の低効率な創出のための前例のない機会も実現した。
経験的に、これらの害は主に、ポルノコンテンツによるウェブデータで訓練された少数のモデルによって実現され、オープンウェイトでリリースされ、十分に保護された。
本稿では,2025年の映像生成モデルにおいて,同じパターンが出現する過程を観察する。
具体的には、少数のオープンウェイトなAIビデオ生成モデルが、ビデオリアリスティックなAIG-NCIIビデオ生成の主要なツールとなっているかを分析する。
次に、モデルセーフガードに関する文献を分析し、(1)適切なデータキュレーションや/またはトレーニング後セーフガードのない有能なビデオ生成モデルの重みをオープンにリリースした開発者は、その害を予防的に軽減することができないモデル配信プラットフォームやAIG-NCII用に設計されたモデルが、この害を予防的に増幅していると結論づける。
オープンウェイトAIモデルからのAIG-NCIIとAIG-CSAMに対する完全な防御は存在しないが、モデル開発者や流通業者によるリスク管理は、新たなセーフガード技術によって、AI生成型AIビデオツールによるAIG-NCIIとAIG-CSAMの作成の容易性に大きく影響すると我々は主張する。
関連論文リスト
- BusterX: MLLM-Powered AI-Generated Video Forgery Detection and Explanation [77.55074597806035]
GenBuster-200Kは、200Kの高解像度ビデオクリップを備えた、大規模で高品質なAI生成ビデオデータセットである。
BusterXは、マルチモーダル大言語モデル(MLLM)と強化学習を活用した、AI生成のビデオ検出および説明フレームワークである。
論文 参考訳(メタデータ) (2025-05-19T02:06:43Z) - RealRAG: Retrieval-augmented Realistic Image Generation via Self-reflective Contrastive Learning [54.07026389388881]
第1回リアルタイムオブジェクトベース検索拡張生成フレームワーク(RealRAG)を提案する。
RealRAGは、生成モデルの知識ギャップを克服するために、現実世界の画像の学習と検索によって、細粒で目に見えない新しいオブジェクトを生成する。
本フレームワークは, 生成モデルに対するきめ細かな視覚的知識を統合し, 歪み問題に対処し, オブジェクト生成における現実性を改善する。
論文 参考訳(メタデータ) (2025-02-02T16:41:54Z) - Data-Free Model-Related Attacks: Unleashing the Potential of Generative AI [21.815149263785912]
本稿では、モデル抽出、メンバーシップ推論、モデル反転を含むモデル関連攻撃を容易にするために生成AIを導入する。
本研究は,データフリーかつブラックボックス方式で,画像モデルとテキストモデルの両方に対して,さまざまなモデル関連攻撃を行うことができることを示す。
この研究は、ディープラーニングモデルに対する生成AIによる攻撃に関連する潜在的なリスクについて、コミュニティに重要な早期警告を提供する。
論文 参考訳(メタデータ) (2025-01-28T03:12:57Z) - A Grey-box Attack against Latent Diffusion Model-based Image Editing by Posterior Collapse [7.390756739899558]
生成AI、特に潜在拡散モデル(LDM)の最近の進歩は、画像合成と操作に革命をもたらした。
VAEが訓練中に後部崩壊をきたすという観察に基づくPCA(Posterior Collapse Attack)を提案する。
本手法は,対象モデルのホワイトボックス情報への依存を最小限に抑え,モデル固有の知識への暗黙的な依存を取り除く。
論文 参考訳(メタデータ) (2024-08-20T14:43:53Z) - Generated Distributions Are All You Need for Membership Inference
Attacks Against Generative Models [29.135008138824023]
本稿では,様々な生成モデルに対する最初の一般化されたメンバシップ推論攻撃を提案する。
実験では、全ての生成モデルが攻撃に対して脆弱であることを検証した。
論文 参考訳(メタデータ) (2023-10-30T10:21:26Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。