論文の概要: MiZero: The Shadowy Defender Against Text Style Infringements
- arxiv url: http://arxiv.org/abs/2504.00035v1
- Date: Sun, 30 Mar 2025 08:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.41984
- Title: MiZero: The Shadowy Defender Against Text Style Infringements
- Title(参考訳): MiZero:テキストスタイルの侵害に対するシャドーディフェンダー
- Authors: Ziwei Zhang, Juan Wen, Wanli Peng, Zhengxian Wu, Yinghan Zhou, Yiming Xue,
- Abstract要約: 本稿では, 暗黙的なゼロ透かし方式であるMiZeroを紹介する。
このスキームは、伝統的な透かし法を超越して、著作権のあるスタイルを保護するための正確な透かし領域を確立する。
実験により、MiZeroはテキストスタイルの著作権所有権をAI模倣に対して有効に検証している。
- 参考スコア(独自算出の注目度): 23.612489763464357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-Context Learning (ICL) and efficient fine-tuning methods significantly enhanced the efficiency of applying Large Language Models (LLMs) to downstream tasks. However, they also raise concerns about the imitation and infringement of personal creative data. Current methods for data copyright protection primarily focuses on content security but lacks effectiveness in protecting the copyrights of text styles. In this paper, we introduce a novel implicit zero-watermarking scheme, namely MiZero. This scheme establishes a precise watermark domain to protect the copyrighted style, surpassing traditional watermarking methods that distort the style characteristics. Specifically, we employ LLMs to extract condensed-lists utilizing the designed instance delimitation mechanism. These lists guide MiZero in generating the watermark. Extensive experiments demonstrate that MiZero effectively verifies text style copyright ownership against AI imitation.
- Abstract(参考訳): In-Context Learning (ICL) と効率的な微調整手法により、下流タスクにLLM(Large Language Models)を適用する効率が大幅に向上した。
しかし、それはまた、個人の創造的データの模倣と侵害に関する懸念を提起する。
データ著作権保護の現在の方法は、主にコンテンツセキュリティに焦点を当てているが、テキストスタイルの著作権を保護する効果に欠ける。
本稿では, 暗黙的なゼロ透かし方式であるMiZeroを紹介する。
このスキームは、著作権のあるスタイルを保護するための正確な透かし領域を確立し、スタイル特性を歪ませる伝統的な透かし手法を超越している。
具体的には、LLMを用いて、設計したインスタンスの復調機構を利用して縮合リストを抽出する。
これらのリストは、透かしを生成するMiZeroのガイドである。
大規模な実験により、MiZeroはテキストスタイルの著作権所有権をAI模倣に対して有効に検証している。
関連論文リスト
- Revisiting the Robustness of Watermarking to Paraphrasing Attacks [10.68370011459729]
多くの最近の透かし技術は、後に検出できる出力に信号を埋め込むためにLMの出力確率を変更する。
ブラックボックス型透かしモデルから限られた世代にしかアクセスできないため,パラフレーズ攻撃による透かし検出の回避効果を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-11-08T02:22:30Z) - ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - PersonaMark: Personalized LLM watermarking for model protection and user attribution [20.2735173280022]
PersonaMarkは、大規模言語モデルの著作権と説明責任を保護するために設計された、パーソナライズされたテキスト透かし方式である。
パーソナライズされたハッシュ機能を利用することで、各ユーザにユニークな透かしを埋め込んで、モデルの性能を損なうことなく高品質なテキスト生成を可能にする。
我々は4つのLCMに対して広範囲な評価を行い、パープレキシティ、感情、アライメント、可読性といった様々な指標を分析した。
論文 参考訳(メタデータ) (2024-09-15T14:10:01Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - Watermark Smoothing Attacks against Language Models [40.02225709485305]
スムーシング・アタック(Smoothing Attack)は,新しい透かし除去法である。
我々は、13ドルBから30ドルBまで、オープンソースのモデルに対する攻撃を検証する。
論文 参考訳(メタデータ) (2024-07-19T11:04:54Z) - SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation [24.644101178288476]
大規模言語モデル(LLM)は機械学習に変化をもたらしたが、重大な法的懸念を引き起こした。
LLMは著作権を侵害したり、著作権のないテキストを過剰に制限したりすることができる。
本稿では,著作権テキストの発生を防止するために,軽量でリアルタイムな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T18:00:03Z) - No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices [20.20770405297239]
LLM透かし方式における一般的な設計選択は、結果のシステムが驚くほど攻撃を受けやすいことを示す。
本稿では, LLM透かしのガイドラインと防御について述べる。
論文 参考訳(メタデータ) (2024-02-25T20:24:07Z) - A Survey of Text Watermarking in the Era of Large Language Models [91.36874607025909]
テキスト透かしアルゴリズムは、テキストコンテンツの著作権を保護するために不可欠である。
大規模言語モデル(LLM)の最近の進歩は、これらの技術に革命をもたらした。
本稿では,テキスト透かし技術の現状を包括的に調査する。
論文 参考訳(メタデータ) (2023-12-13T06:11:42Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。