論文の概要: DFA-CON: A Contrastive Learning Approach for Detecting Copyright Infringement in DeepFake Art
- arxiv url: http://arxiv.org/abs/2505.08552v1
- Date: Tue, 13 May 2025 13:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.583061
- Title: DFA-CON: A Contrastive Learning Approach for Detecting Copyright Infringement in DeepFake Art
- Title(参考訳): DFA-CON:ディープフェイクアートにおける著作権侵害検出のためのコントラスト学習手法
- Authors: Haroon Wahab, Hassan Ugail, Irfan Mehmood,
- Abstract要約: この研究は、著作権侵害や偽造されたAI生成アートを検出するために設計された、対照的な学習フレームワークであるDFA-CONを紹介する。
DFA-CONは差別的な表現空間を学び、オリジナルアート作品とその偽造作品に親和性を示す。
- 参考スコア(独自算出の注目度): 0.9070719355999145
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent proliferation of generative AI tools for visual content creation-particularly in the context of visual artworks-has raised serious concerns about copyright infringement and forgery. The large-scale datasets used to train these models often contain a mixture of copyrighted and non-copyrighted artworks. Given the tendency of generative models to memorize training patterns, they are susceptible to varying degrees of copyright violation. Building on the recently proposed DeepfakeArt Challenge benchmark, this work introduces DFA-CON, a contrastive learning framework designed to detect copyright-infringing or forged AI-generated art. DFA-CON learns a discriminative representation space, posing affinity among original artworks and their forged counterparts within a contrastive learning framework. The model is trained across multiple attack types, including inpainting, style transfer, adversarial perturbation, and cutmix. Evaluation results demonstrate robust detection performance across most attack types, outperforming recent pretrained foundation models. Code and model checkpoints will be released publicly upon acceptance.
- Abstract(参考訳): 近年の視覚コンテンツ作成のための生成AIツールの普及は、特に視覚アートワークの文脈において、著作権侵害や偽造に対する深刻な懸念を引き起こしている。
これらのモデルをトレーニングするために使用される大規模なデータセットには、著作権と非著作権のアートワークが混在していることが多い。
学習パターンを記憶する生成モデルの傾向を考えると、著作権侵害の程度は様々である。
この研究は、最近提案されたDeepfakeArt Challengeベンチマークに基づいて、著作権侵害や偽造AI生成アートを検出するために設計された、対照的な学習フレームワークであるDFA-CONを導入する。
DFA-CONは、差別的な表現空間を学習し、対照的な学習フレームワークの中で、オリジナルのアート作品とその偽造作品に親和性を示す。
このモデルは、インペイント、スタイル転送、敵の摂動、カットミックスなど、複数の攻撃タイプで訓練されている。
評価の結果,攻撃型の大部分に対して堅牢な検出性能を示し,近年の事前学習基盤モデルよりも優れていた。
コードとモデルチェックポイントは受理後、公開される。
関連論文リスト
- ArtistAuditor: Auditing Artist Style Pirate in Text-to-Image Generation Models [61.55816738318699]
本稿では,テキスト・画像生成モデルにおける新しいデータ利用監査手法を提案する。
ArtistAuditorは、多彩なスタイルの表現を得るためにスタイル抽出器を使用し、アートワークをアーティストのスタイルのサンプリングとして扱う。
6つのモデルとデータセットの組み合わせによる実験結果は、ArtistAuditorが高いAUC値を達成可能であることを示している。
論文 参考訳(メタデータ) (2025-04-17T16:15:38Z) - Sample Correlation for Fingerprinting Deep Face Recognition [83.53005932513156]
SAC(SA Corremplelation)に基づく新しいモデル盗難検出手法を提案する。
SACは、顔認証や顔の感情認識を含む、深層顔認識における様々なモデル盗難攻撃に対して、AUC、p値、F1スコアの点で最高のパフォーマンスを示すことに成功した。
我々は,SAC-JC の評価を Tiny-ImageNet や CIFAR10 などのオブジェクト認識に拡張し,従来の手法よりも SAC-JC の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-30T07:37:06Z) - IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
本稿では,拡散モデルのみによって生成された特徴を用いて,スタイル帰属問題を解決するための学習自由フレームワークを提案する。
これはイントロスペクティブなスタイル属性(IntroStyle)と表現され、スタイル検索の最先端モデルよりも優れたパフォーマンスを示す。
また,芸術的スタイルを分離し,きめ細かなスタイル帰属性能を評価するために,スタイルハック(SHacks)の合成データセットも導入した。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - An Analysis of Recent Advances in Deepfake Image Detection in an Evolving Threat Landscape [11.45988746286973]
ディープフェイクまたは合成画像は、オンラインプラットフォームに深刻なリスクをもたらす。
われわれは8つの最先端の検出器を研究し、配備の準備が整っていないと論じている。
論文 参考訳(メタデータ) (2024-04-24T21:21:50Z) - CGI-DM: Digital Copyright Authentication for Diffusion Models via Contrasting Gradient Inversion [26.70115339710056]
Contrasting Gradient Inversion for Diffusion Models (CGI-DM) はデジタル著作権認証のための鮮やかな視覚表現を特徴とする新しい手法である。
入力画像が同じである場合、2つのモデルの潜在変数間のKLばらつきを定式化する。
WikiArtとDreamboothデータセットの実験は、デジタル著作権認証におけるCGI-DMの精度を実証している。
論文 参考訳(メタデータ) (2024-03-17T10:06:38Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。