論文の概要: Measuring the Success of Diffusion Models at Imitating Human Artists
- arxiv url: http://arxiv.org/abs/2307.04028v1
- Date: Sat, 8 Jul 2023 18:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 16:00:20.009303
- Title: Measuring the Success of Diffusion Models at Imitating Human Artists
- Title(参考訳): 人体アーティストの拡散モデルの成功度を計測する
- Authors: Stephen Casper, Zifan Guo, Shreya Mogulothu, Zachary Marinov, Chinmay
Deshpande, Rui-Jie Yew, Zheng Dai, Dylan Hadfield-Menell
- Abstract要約: モデルが特定のアーティストを模倣する能力を測定する方法を示す。
コントラスト言語-画像事前訓練(CLIP)エンコーダを用いてゼロショット方式で画像の分類を行う。
また,アーティストの作品のサンプルを,これらの模倣画像と高い統計的信頼性で一致させることができることを示す。
- 参考スコア(独自算出の注目度): 7.007492782620398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern diffusion models have set the state-of-the-art in AI image generation.
Their success is due, in part, to training on Internet-scale data which often
includes copyrighted work. This prompts questions about the extent to which
these models learn from, imitate, or copy the work of human artists. This work
suggests that tying copyright liability to the capabilities of the model may be
useful given the evolving ecosystem of generative models. Specifically, much of
the legal analysis of copyright and generative systems focuses on the use of
protected data for training. As a result, the connections between data,
training, and the system are often obscured. In our approach, we consider
simple image classification techniques to measure a model's ability to imitate
specific artists. Specifically, we use Contrastive Language-Image Pretrained
(CLIP) encoders to classify images in a zero-shot fashion. Our process first
prompts a model to imitate a specific artist. Then, we test whether CLIP can be
used to reclassify the artist (or the artist's work) from the imitation. If
these tests match the imitation back to the original artist, this suggests the
model can imitate that artist's expression. Our approach is simple and
quantitative. Furthermore, it uses standard techniques and does not require
additional training. We demonstrate our approach with an audit of Stable
Diffusion's capacity to imitate 70 professional digital artists with
copyrighted work online. When Stable Diffusion is prompted to imitate an artist
from this set, we find that the artist can be identified from the imitation
with an average accuracy of 81.0%. Finally, we also show that a sample of the
artist's work can be matched to these imitation images with a high degree of
statistical reliability. Overall, these results suggest that Stable Diffusion
is broadly successful at imitating individual human artists.
- Abstract(参考訳): 現代の拡散モデルは、AI画像生成の最先端を定めている。
彼らの成功は、著作権のある作品を含むインターネット規模のデータをトレーニングすることにある。
これにより、これらのモデルが人間のアーティストの作品から学べるか、模倣するか、あるいはコピーするか、という疑問が提起される。
この研究は、生成モデルの進化するエコシステムを考えると、モデルの能力に著作権責任を結び付けることが有用であることを示している。
特に、著作権および生成システムの法的分析の多くは、トレーニングに保護されたデータを使用することに焦点を当てている。
結果として、データ、トレーニング、システム間の接続はしばしば曖昧になる。
本研究では,モデルが特定のアーティストを模倣する能力を測定するため,簡単な画像分類手法を検討する。
具体的には,Contrastive Language-Image Pretrained (CLIP)エンコーダを用いて,ゼロショット方式で画像の分類を行う。
私たちのプロセスは、まずモデルに特定のアーティストを模倣するよう促します。
次に、CLIPを用いてアーティスト(またはアーティストの作品)を模倣から再分類できるかどうかをテストする。
これらのテストがオリジナルのアーティストの模倣と一致する場合、モデルがそのアーティストの表現を模倣できることを示唆している。
私たちのアプローチはシンプルで量的です。
さらに、標準技術を使用し、追加のトレーニングを必要としない。
著作権のある著作物を70人のプロのデジタルアーティストに模倣する、安定した拡散の能力を監査することで、このアプローチを実証する。
この集合からアーティストを模倣するために安定した拡散が促されると、アーティストは平均81.0%の精度で模倣から識別できることがわかった。
最後に,アーティストの作品のサンプルを,これらの模倣画像と高い統計的信頼性で一致させることができることを示す。
これらの結果は、安定拡散は個人芸術家の模倣に広く成功していることを示唆している。
関連論文リスト
- How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold [50.33428591760124]
学習データセットにおける概念の頻度とモデルを模倣する能力の関係について検討する。
我々は,複数のモデルをスクラッチからトレーニングする余剰コストを発生させることなく,模倣閾値を推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:28:14Z) - Not Every Image is Worth a Thousand Words: Quantifying Originality in Stable Diffusion [21.252145402613472]
本研究は,テキスト・ツー・イメージ(T2I)生成拡散モデルにおける原点の定量化という課題に対処する。
本稿では,テキストのインバージョンを利用して画像の原点度をモデルによる再構成に必要なトークン数に基づいて測定する手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T14:42:02Z) - Rethinking Artistic Copyright Infringements in the Era of Text-to-Image Generative Models [47.19481598385283]
ArtSavantは、ウィキアートの作品の参照データセットと比較することで、アーティストのユニークなスタイルを決定するツールである。
そこで我々は,3つの人気テキスト・画像生成モデルにまたがる芸術的スタイルの複製の頻度を定量的に把握するために,大規模な実証的研究を行った。
論文 参考訳(メタデータ) (2024-04-11T17:59:43Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Not with my name! Inferring artists' names of input strings employed by
Diffusion Models [8.692128987695423]
拡散モデル(DM)は、現実的で高品質な画像を生成するのに非常に効果的である。
しかし、これらのモデルは創造性に欠けており、単にトレーニングデータに基づいて出力を構成するだけである。
本稿では,生成画像の入力文字列におけるアーティスト名の使用確率を推定する予備的研究について述べる。
論文 参考訳(メタデータ) (2023-07-25T14:18:58Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Learning to Evaluate the Artness of AI-generated Images [64.48229009396186]
アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
論文 参考訳(メタデータ) (2023-05-08T17:58:27Z) - Diffusion Art or Digital Forgery? Investigating Data Replication in
Diffusion Models [53.03978584040557]
生成した画像とトレーニングサンプルを比較し、コンテンツが複製されたことを検知する画像検索フレームワークについて検討する。
フレームワークをオックスフォード花、Celeb-A、ImageNet、LAIONなど複数のデータセットでトレーニングされた拡散モデルに適用することにより、トレーニングセットのサイズがコンテンツ複製の速度にどのように影響するかを議論する。
論文 参考訳(メタデータ) (2022-12-07T18:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。