論文の概要: Deepfakes on Demand: the rise of accessible non-consensual deepfake image generators
- arxiv url: http://arxiv.org/abs/2505.03859v1
- Date: Tue, 06 May 2025 15:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.877902
- Title: Deepfakes on Demand: the rise of accessible non-consensual deepfake image generators
- Title(参考訳): Deepfakes on Demand: アクセス可能な非合意のDeepfakeイメージジェネレータの台頭
- Authors: Will Hawkins, Chris Russell, Brent Mittelstadt,
- Abstract要約: 本稿では,オンライン上でのディープフェイクモデルのアクセシビリティについて,実証的研究を行った。
一般にダウンロード可能なディープフェイクモデルの約35,000の例が特定されている。
これらの結果は、ディープフェイクやNCIIの創出に対して、より大きな行動を取ることの必要性を強調している。
- 参考スコア(独自算出の注目度): 7.539523407936451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in multimodal machine learning have made text-to-image (T2I) models increasingly accessible and popular. However, T2I models introduce risks such as the generation of non-consensual depictions of identifiable individuals, otherwise known as deepfakes. This paper presents an empirical study exploring the accessibility of deepfake model variants online. Through a metadata analysis of thousands of publicly downloadable model variants on two popular repositories, Hugging Face and Civitai, we demonstrate a huge rise in easily accessible deepfake models. Almost 35,000 examples of publicly downloadable deepfake model variants are identified, primarily hosted on Civitai. These deepfake models have been downloaded almost 15 million times since November 2022, with the models targeting a range of individuals from global celebrities to Instagram users with under 10,000 followers. Both Stable Diffusion and Flux models are used for the creation of deepfake models, with 96% of these targeting women and many signalling intent to generate non-consensual intimate imagery (NCII). Deepfake model variants are often created via the parameter-efficient fine-tuning technique known as low rank adaptation (LoRA), requiring as few as 20 images, 24GB VRAM, and 15 minutes of time, making this process widely accessible via consumer-grade computers. Despite these models violating the Terms of Service of hosting platforms, and regulation seeking to prevent dissemination, these results emphasise the pressing need for greater action to be taken against the creation of deepfakes and NCII.
- Abstract(参考訳): マルチモーダル機械学習の進歩により、テキスト・ツー・イメージ(T2I)モデルはますますアクセスしやすく普及している。
しかしながら、T2Iモデルは、ディープフェイク(deepfakes)として知られる識別可能な個人の非合意的な描写の生成のようなリスクを導入している。
本稿では,オンライン上でのディープフェイクモデルのアクセシビリティについて,実証的研究を行った。
Hugging FaceとCivitaiという2つの人気のあるリポジトリ上で、何千ものパブリックダウンロード可能なモデルのメタデータ分析を通じて、容易にアクセス可能なディープフェイクモデルの大幅な増加を実証しています。
一般にダウンロード可能なディープフェイクモデルの約35,000の例が同定され、主にシヴィタイでホストされている。
これらのディープフェイクモデルは2022年11月から約1500万回ダウンロードされ、世界中の有名人からInstagramユーザーまで1万人未満のユーザーをターゲットにしている。
安定拡散モデルとフラックスモデルの両方がディープフェイクモデルの作成に使われており、そのうち96%は女性をターゲットにしており、多くのシグナルは非合意的近親画像(NCII)を生成する。
ディープフェイクモデルの変種はローランク適応(LoRA)と呼ばれるパラメータ効率の良い微調整技術によってしばしば作成され、20枚の画像、24GBのVRAM、15分間の時間を要するため、このプロセスはコンシューマグレードのコンピュータを介して広くアクセスすることができる。
これらのモデルがホスティングプラットフォームのサービス規約に違反し、普及を防ごうとする規制にも拘わらず、これらの結果はディープフェイクやNCIIの創出に対するより大きな行動の必要性を強調している。
関連論文リスト
- SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計されたフレームワークである。
学習したセマンティックな概念から透かし情報を切り離すようモデルに誘導する。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - An Analysis of Recent Advances in Deepfake Image Detection in an Evolving Threat Landscape [11.45988746286973]
ディープフェイクまたは合成画像は、オンラインプラットフォームに深刻なリスクをもたらす。
われわれは8つの最先端の検出器を研究し、配備の準備が整っていないと論じている。
論文 参考訳(メタデータ) (2024-04-24T21:21:50Z) - Hybrid Deepfake Detection Utilizing MLP and LSTM [0.0]
ディープフェイク(deepfake)は、最新の技術進歩にともなう発明である。
本稿では,2つのディープラーニングアルゴリズムを用いた新しいディープフェイク検出方式を提案する。
我々は、140k RealとFake Facesというデータセットを使用して、74.7%の精度で、ディープフェイクによって変化した画像を検出する。
論文 参考訳(メタデータ) (2023-04-21T16:38:26Z) - Deepfake Detection Analyzing Hybrid Dataset Utilizing CNN and SVM [0.0]
本稿では,2つの機械学習アルゴリズムを用いた新しいディープフェイク検出方式を提案する。
最近、Deepfakesはテクノロジーの進歩とともに上昇し、悪名高いオンラインユーザーが、自分の好きな人の顔をコンピューターで作り替えることを可能にした。
論文 参考訳(メタデータ) (2023-01-27T01:00:39Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - On Attribution of Deepfakes [25.334701225923517]
生成的敵ネットワークは メディアを効果的に 合成し 変更できるようにしました
現在、悪意のある個人は、これらの機械生成メディア(ディープフェイク)を使って、社会的言論を操っている。
そこで本研究では,各生成モデルのエントロピー源を最適化し,ディープフェイクをモデルの一つに属性付ける手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T20:25:18Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。