論文の概要: StyleSentinel: Reliable Artistic Copyright Verification via Stylistic Fingerprints
- arxiv url: http://arxiv.org/abs/2508.01335v1
- Date: Sat, 02 Aug 2025 12:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.830726
- Title: StyleSentinel: Reliable Artistic Copyright Verification via Stylistic Fingerprints
- Title(参考訳): StyleSentinel:スティリスティックフィンガープリントによる芸術的著作権の信頼性検証
- Authors: Lingxiao Chen, Liqin Wang, Wei Lu,
- Abstract要約: StyleSentinelは、アーティストのアートワークに固有のスタイリスティックな指紋を検証することによって、アートワークの著作権保護のためのアプローチである。
我々は,芸術作品のスタイリスティックな表現性を高めるために,セマンティックな自己再構成プロセスを採用している。
我々は,抽象芸術様式をコンパクトなスタイリスティックフィンガーにエンコードするために,多層画像特徴を適応的に融合する。
- 参考スコア(独自算出の注目度): 5.457996001307646
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The versatility of diffusion models in generating customized images has led to unauthorized usage of personal artwork, which poses a significant threat to the intellectual property of artists. Existing approaches relying on embedding additional information, such as perturbations, watermarks, and backdoors, suffer from limited defensive capabilities and fail to protect artwork published online. In this paper, we propose StyleSentinel, an approach for copyright protection of artwork by verifying an inherent stylistic fingerprint in the artist's artwork. Specifically, we employ a semantic self-reconstruction process to enhance stylistic expressiveness within the artwork, which establishes a dense and style-consistent manifold foundation for feature learning. Subsequently, we adaptively fuse multi-layer image features to encode abstract artistic style into a compact stylistic fingerprint. Finally, we model the target artist's style as a minimal enclosing hypersphere boundary in the feature space, transforming complex copyright verification into a robust one-class learning task. Extensive experiments demonstrate that compared with the state-of-the-art, StyleSentinel achieves superior performance on the one-sample verification task. We also demonstrate the effectiveness through online platforms.
- Abstract(参考訳): カスタマイズされた画像の生成における拡散モデルの汎用性は、個人作品の無許可使用につながり、アーティストの知的財産に重大な脅威をもたらしている。
既存のアプローチは、摂動、透かし、バックドアなどの追加情報を埋め込むことに依存しており、防御能力の限界に悩まされ、オンラインで公開されたアートワークを保護できない。
本稿では,アーティストのアートワークに固有のスタイル的指紋を検証し,著作権保護のためのアプローチであるStyleSentinelを提案する。
具体的には,文体表現性を高めるために意味的自己再構成プロセスを採用し,特徴学習のための密度とスタイルに一貫性のある多様体基盤を確立する。
次に,多層画像の特徴を適応的に融合させ,抽象芸術様式をコンパクトなスタイリスティックフィンガーにエンコードする。
最後に,対象アーティストのスタイルを特徴空間内の極小囲いハイパースフィア境界としてモデル化し,複雑な著作権検証を堅牢な1クラス学習タスクに変換する。
大規模な実験により、StyleSentinelは最先端のシステムと比較すると、一サンプル検証タスクにおいて優れた性能を発揮することが示された。
オンラインプラットフォームによる効果も示す。
関連論文リスト
- DFA-CON: A Contrastive Learning Approach for Detecting Copyright Infringement in DeepFake Art [0.9070719355999145]
この研究は、著作権侵害や偽造されたAI生成アートを検出するために設計された、対照的な学習フレームワークであるDFA-CONを紹介する。
DFA-CONは差別的な表現空間を学び、オリジナルアート作品とその偽造作品に親和性を示す。
論文 参考訳(メタデータ) (2025-05-13T13:23:52Z) - ArtistAuditor: Auditing Artist Style Pirate in Text-to-Image Generation Models [61.55816738318699]
本稿では,テキスト・画像生成モデルにおける新しいデータ利用監査手法を提案する。
ArtistAuditorは、多彩なスタイルの表現を得るためにスタイル抽出器を使用し、アートワークをアーティストのスタイルのサンプリングとして扱う。
6つのモデルとデータセットの組み合わせによる実験結果は、ArtistAuditorが高いAUC値を達成可能であることを示している。
論文 参考訳(メタデータ) (2025-04-17T16:15:38Z) - IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
本稿では,拡散モデルのみによって生成された特徴を用いて,スタイル帰属問題を解決するための学習自由フレームワークを提案する。
これはイントロスペクティブなスタイル属性(IntroStyle)と表現され、スタイル検索の最先端モデルよりも優れたパフォーマンスを示す。
また,芸術的スタイルを分離し,きめ細かなスタイル帰属性能を評価するために,スタイルハック(SHacks)の合成データセットも導入した。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - FedStyle: Style-Based Federated Learning Crowdsourcing Framework for Art Commissions [3.1676484382068315]
FedStyleはスタイルベースのフェデレーション学習クラウドソーシングフレームワークである。
アーティストは、コラボレーションのためのアートワークではなく、ローカルスタイルのモデルをトレーニングし、モデルパラメータを共有することができる。
アーティストに抽象的なスタイルの表現を学習させ、サーバと整合させることで、極端なデータ不均一性に対処する。
論文 参考訳(メタデータ) (2024-04-25T04:53:43Z) - Towards Highly Realistic Artistic Style Transfer via Stable Diffusion with Step-aware and Layer-aware Prompt [12.27693060663517]
芸術的スタイルの転送は、学習した芸術的スタイルを任意のコンテンツイメージに転送することを目的としており、芸術的なスタイル化されたイメージを生成する。
LSASTと呼ばれる,事前学習型拡散型アートスタイルトランスファー手法を提案する。
提案手法は,最先端の芸術的スタイル伝達法よりも,よりリアルな芸術的スタイル化画像を生成することができる。
論文 参考訳(メタデータ) (2024-04-17T15:28:53Z) - Rethinking Artistic Copyright Infringements in the Era of Text-to-Image Generative Models [47.19481598385283]
ArtSavantは、ウィキアートの作品の参照データセットと比較することで、アーティストのユニークなスタイルを決定するツールである。
そこで我々は,3つの人気テキスト・画像生成モデルにまたがる芸術的スタイルの複製の頻度を定量的に把握するために,大規模な実証的研究を行った。
論文 参考訳(メタデータ) (2024-04-11T17:59:43Z) - CreativeSynth: Cross-Art-Attention for Artistic Image Synthesis with Multimodal Diffusion [73.08710648258985]
レイアウト、視点、形状、意味といった重要な絵の属性は、しばしばスタイル転送によって伝達され、表現されない。
大規模な事前訓練された画像生成モデルは、大量の高品質な画像を合成できることを実証している。
我々の主要なアイデアは、スタイルを現実の世界に移すのではなく、多モーダルな意味情報を合成ガイドとしてアートに組み込むことである。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - QuantArt: Quantizing Image Style Transfer Towards High Visual Fidelity [94.5479418998225]
視覚的忠実度の高いスタイリングのためのQuantArtと呼ばれる新しいスタイル転送フレームワークを提案する。
本フレームワークは,既存のスタイル転送方式と比較して,視覚的忠実度を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T17:09:53Z) - AesUST: Towards Aesthetic-Enhanced Universal Style Transfer [15.078430702469886]
AesUSTは、新しいユニバーサルスタイルトランスファーアプローチである。
本研究では, 芸術作品の大規模なコーパスから, 普遍的な美的特徴を学習するための美的差別化手法を提案する。
また,モデルをより効果的にトレーニングするために,2つの審美規則を組み込んだ新しい2段階移動訓練戦略を開発した。
論文 参考訳(メタデータ) (2022-08-27T13:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。