論文の概要: Steal My Artworks for Fine-tuning? A Watermarking Framework for
Detecting Art Theft Mimicry in Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2311.13619v1
- Date: Wed, 22 Nov 2023 07:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 01:48:28.302353
- Title: Steal My Artworks for Fine-tuning? A Watermarking Framework for
Detecting Art Theft Mimicry in Text-to-Image Models
- Title(参考訳): 微調整のために美術品を盗む?
テキスト対画像モデルにおけるアート盗難の模倣検出のための透かしフレームワーク
- Authors: Ge Luo, Junqiang Huang, Manman Zhang, Zhenxing Qian, Sheng Li, Xinpeng
Zhang
- Abstract要約: テキスト・ツー・イメージモデルにおける模倣を微調整により検出する新しい透かしフレームワークを提案する。
このフレームワークは、微妙な透かしをデジタルアートワークに埋め込んで、アーティストの視覚的表現を維持しながら著作権を保護する。
一連の画像におけるこれらの透かしの分布を解析することにより、盗難被害者データを用いた微調整の模倣行為が露呈する。
- 参考スコア(独自算出の注目度): 35.360495366424885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement in text-to-image models has led to astonishing artistic
performances. However, several studios and websites illegally fine-tune these
models using artists' artworks to mimic their styles for profit, which violates
the copyrights of artists and diminishes their motivation to produce original
works. Currently, there is a notable lack of research focusing on this issue.
In this paper, we propose a novel watermarking framework that detects mimicry
in text-to-image models through fine-tuning. This framework embeds subtle
watermarks into digital artworks to protect their copyrights while still
preserving the artist's visual expression. If someone takes watermarked
artworks as training data to mimic an artist's style, these watermarks can
serve as detectable indicators. By analyzing the distribution of these
watermarks in a series of generated images, acts of fine-tuning mimicry using
stolen victim data will be exposed. In various fine-tune scenarios and against
watermark attack methods, our research confirms that analyzing the distribution
of watermarks in artificially generated images reliably detects unauthorized
mimicry.
- Abstract(参考訳): テキストから画像へのモデルの進歩は、驚くべき芸術的パフォーマンスを生み出した。
しかし、いくつかのスタジオやウェブサイトはこれらのモデルを違法に微調整し、アーティストの作品を模倣して利益を上げ、アーティストの著作権を侵害し、オリジナル作品を制作する動機を減らした。
現在、この問題に焦点を当てた研究の欠如が顕著である。
本稿では,微調整によるテキスト・画像モデルの模倣を検出する新しい透かしフレームワークを提案する。
このフレームワークは、微妙な透かしをデジタルアートワークに埋め込んで、アーティストの視覚的表現を維持しながら著作権を保護する。
アーティストのスタイルを模倣するトレーニングデータとして透かしのアートワークを利用すれば、これらの透かしは検出可能な指標として機能する。
一連の画像中のこれらの透かしの分布を分析することで、盗難被害者データを用いた微調整模倣行為が露見される。
様々な微妙なシナリオやウォーターマーク攻撃法に対して,人工的に生成された画像中のウォーターマークの分布を分析することで,不正な模倣を確実に検出できることを確認した。
関連論文リスト
- Steganalysis on Digital Watermarking: Is Your Defense Truly Impervious? [21.06493827123594]
ステガナリシス攻撃は 最小限の知覚歪みで 透かしを抽出し除去できる
平均的な透かし画像の集合は、その下にある透かしパターンを明らかにすることができる。
本稿では,コンテンツ適応型透かし戦略とステガナリシスに対するセキュリティ評価を実施するためのセキュリティガイドラインを提案する。
論文 参考訳(メタデータ) (2024-06-13T12:01:28Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。