論文の概要: Copyright in Generative Deep Learning
- arxiv url: http://arxiv.org/abs/2105.09266v1
- Date: Wed, 19 May 2021 17:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:56:52.400838
- Title: Copyright in Generative Deep Learning
- Title(参考訳): 生成的深層学習における著作権
- Authors: Giorgio Franceschelli and Mirco Musolesi
- Abstract要約: 芸術における生成的深層学習の分野における重要な疑問の集合を考える。
我々は、米国とEUの両方で施行されている法律を考慮して、これらの質問に答えようとしている。
- 参考スコア(独自算出の注目度): 3.689181056530984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-generated artworks are now part of the contemporary art scene: they
are attracting significant investments and they are presented in exhibitions
together with those created by human artists. These artworks are mainly based
on generative deep learning techniques. Also given their success, several legal
problems arise when working with these techniques.
In this article we consider a set of key questions in the area of generative
deep learning for the arts. Is it possible to use copyrighted works as training
set for generative models? How do we legally store their copies in order to
perform the training process? And then, who (if someone) will own the copyright
on the generated data? We try to answer these questions considering the law in
force in both US and EU and the future alternatives, trying to define a set of
guidelines for artists and developers working on deep learning generated art.
- Abstract(参考訳): 機械によるアートシーンは現代美術シーンの一部であり、大きな投資を集めており、人間アーティストが制作した作品とともに展示会で展示されている。
これらのアートワークは主に生成的深層学習技術に基づいている。
また、その成功を踏まえると、これらの技術を扱う際にいくつかの法的問題が発生する。
本稿では,芸術における生成的深層学習の分野における重要な課題について考察する。
生成モデルのトレーニングセットとして著作権作品を使用することは可能か?
トレーニングプロセスを実行するために、コピーを法的にどのように保存するか?
そして、誰が(誰かが)生成したデータの著作権を所有するのか?
私たちは、米国とeuの両方で施行される法律と将来の代替案を考慮したこれらの質問に答え、ディープラーニング生成アートに取り組んでいるアーティストと開発者のためのガイドラインを定義しようとしています。
関連論文リスト
- How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold [50.33428591760124]
学習データセットにおける概念の頻度とモデルを模倣する能力の関係について検討する。
我々は,複数のモデルをスクラッチからトレーニングする余剰コストを発生させることなく,模倣閾値を推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:28:14Z) - At the edge of a generative cultural precipice [1.688134675717698]
NFTと大規模な生成モデルが公開されて以来、アーティストは彼らの仕事が脅かされ、盗まれたのを見た。
生成モデルは、人為的なコンテンツを使用してトレーニングされ、それらが生成できるスタイルとテーマをより良くガイドします。
生成モデルに関する最近の研究に触発されて、私たちは注意深い物語を語り、生成モデルが生成コンテンツのみに基づいてトレーニングされる道のりをたどるかどうかを視覚芸術に何が起こるか尋ねたい。
論文 参考訳(メタデータ) (2024-04-30T23:26:24Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Rethinking Artistic Copyright Infringements in the Era of Text-to-Image Generative Models [47.19481598385283]
ArtSavantは、ウィキアートの作品の参照データセットと比較することで、アーティストのユニークなスタイルを決定するツールである。
そこで我々は,3つの人気テキスト・画像生成モデルにまたがる芸術的スタイルの複製の頻度を定量的に把握するために,大規模な実証的研究を行った。
論文 参考訳(メタデータ) (2024-04-11T17:59:43Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - Foregrounding Artist Opinions: A Survey Study on Transparency, Ownership, and Fairness in AI Generative Art [0.0]
生成AIツールは、アートのようなアウトプットを作成し、時には創造的なプロセスを支援するために使用される。
我々は459人のアーティストを調査し、ジェネレーティブAIアートの潜在的有用性と害に関するアーティストの意見の緊張関係を調査した。
論文 参考訳(メタデータ) (2024-01-27T20:22:46Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Studying Artist Sentiments around AI-generated Artwork [25.02527831382343]
われわれは7人のアーティストにインタビューし、ソーシャルメディアプラットフォームReddit、Twitter、Artstationでアーティストの投稿を分析した。
我々は、これらのツールの包括的開発に向けて、AI生成アートワークに関するアーティストの主な懸念と希望を報告します。
論文 参考訳(メタデータ) (2023-11-22T22:44:02Z) - Measuring the Success of Diffusion Models at Imitating Human Artists [7.007492782620398]
モデルが特定のアーティストを模倣する能力を測定する方法を示す。
コントラスト言語-画像事前訓練(CLIP)エンコーダを用いてゼロショット方式で画像の分類を行う。
また,アーティストの作品のサンプルを,これらの模倣画像と高い統計的信頼性で一致させることができることを示す。
論文 参考訳(メタデータ) (2023-07-08T18:31:25Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Can There be Art Without an Artist? [1.2691047660244335]
ジェネレーティブAIベースのアートは、この1年で急増している。
本稿では,ジェネレーティブ・モデルが芸術にどのような影響を及ぼしたかを考察する。
レスポンシブルにデプロイすれば、AI生成モデルは、アートにおいてポジティブで新しいモダリティになる可能性があると仮定する。
論文 参考訳(メタデータ) (2022-09-16T01:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。