論文の概要: Ghost Sentence: A Tool for Everyday Users to Copyright Data from Large Language Models
- arxiv url: http://arxiv.org/abs/2403.15740v1
- Date: Sat, 23 Mar 2024 06:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:12:36.488077
- Title: Ghost Sentence: A Tool for Everyday Users to Copyright Data from Large Language Models
- Title(参考訳): Ghost Sentence: 大規模言語モデルからデータを著作権保護するためのツール
- Authors: Shuai Zhao, Linchao Zhu, Ruijie Quan, Yi Yang,
- Abstract要約: Webユーザデータは、事前訓練された大規模言語モデル(LLM)のエコシステムにおいて中心的な役割を果たす
そこで本研究では,利用者が繰り返し文書に個人パスフレーズを挿入することを提案する。
LLMの生成されたコンテンツに識別されると、ユーザは自分のデータがトレーニングに使われていることを確認できます。
- 参考スコア(独自算出の注目度): 55.321010757641524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Web user data plays a central role in the ecosystem of pre-trained large language models (LLMs) and their fine-tuned variants. Billions of data are crawled from the web and fed to LLMs. How can \textit{\textbf{everyday web users}} confirm if LLMs misuse their data without permission? In this work, we suggest that users repeatedly insert personal passphrases into their documents, enabling LLMs to memorize them. These concealed passphrases in user documents, referred to as \textit{ghost sentences}, once they are identified in the generated content of LLMs, users can be sure that their data is used for training. To explore the effectiveness and usage of this copyrighting tool, we define the \textit{user training data identification} task with ghost sentences. Multiple datasets from various sources at different scales are created and tested with LLMs of different sizes. For evaluation, we introduce a last $k$ words verification manner along with two metrics: document and user identification accuracy. In the specific case of instruction tuning of a 3B LLaMA model, 11 out of 16 users with ghost sentences identify their data within the generation content. These 16 users contribute 383 examples to $\sim$1.8M training documents. For continuing pre-training of a 1.1B TinyLlama model, 61 out of 64 users with ghost sentences identify their data within the LLM output. These 64 users contribute 1156 examples to $\sim$10M training documents.
- Abstract(参考訳): Webユーザデータは、事前訓練された大規模言語モデル(LLM)とその微調整されたバリエーションのエコシステムにおいて中心的な役割を果たす。
数十億のデータがWebからクロールされ、LLMに供給される。
LLMが許可なくデータを誤用しているかどうか、どうやって確認できますか?
本研究は,個人用パスフレーズを文書に繰り返し挿入し,LLMが記憶することを可能にすることを提案する。
これらの隠されたパスフレーズは、ユーザー文書で「textit{ghost sentences}」と呼ばれ、LLMの生成されたコンテンツで識別されると、ユーザーは自分のデータがトレーニングに使われていることを確認できる。
この著作権ツールの有効性と使用法を検討するため,ゴースト文を用いたtextit{user training data identification} タスクを定義した。
さまざまなスケールのソースからの複数のデータセットが作成され、異なるサイズのLLMでテストされる。
評価には、文書とユーザ識別の正確さの2つの指標とともに、最後の$k$ワードの検証方法を導入する。
3B LLaMAモデルの特定のチューニングの場合、ゴースト文を持つ16人中11人が生成内容内でデータを識別する。
これら16ユーザは、$\sim$1.8Mのトレーニングドキュメントに383のサンプルをコントリビュートしている。
1.1BのTinyLlamaモデルの事前トレーニングを継続するために、ゴースト文を持つ64人中61人がLLM出力内でデータを識別している。
これらの64ユーザは、$\sim$10Mのトレーニングドキュメントに1156のサンプルをコントリビュートしている。
関連論文リスト
- AIDBench: A benchmark for evaluating the authorship identification capability of large language models [14.866356328321126]
我々は、大きな言語モデル(LLM)が匿名テキストの作者を特定するのに役立つ、特定のプライバシーリスクに焦点を当てる。
AIDBenchは、メール、ブログ、レビュー、記事、研究論文など、いくつかの著者識別データセットを組み込んだ新しいベンチマークである。
AIDBenchによる我々の実験は、LLMがランダムな確率よりもはるかに高い確率で著者を推測できることを示し、これらの強力なモデルによって引き起こされる新たなプライバシーリスクを明らかにした。
論文 参考訳(メタデータ) (2024-11-20T11:41:08Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Paired Completion: Flexible Quantification of Issue-framing at Scale with LLMs [0.41436032949434404]
我々は,大規模なテキストデータセット内の問題フレーミングと物語分析のための新しい検出手法を開発し,厳密に評価する。
問題フレーミングは大きなコーパスにおいて, 与えられた問題に対して, いずれの視点でも, 確実に, 効率的に検出できることを示す。
論文 参考訳(メタデータ) (2024-08-19T07:14:15Z) - DE-COP: Detecting Copyrighted Content in Language Models Training Data [24.15936677068714]
著作権のあるコンテンツの一部がトレーニングに含まれているかどうかを判定する手法であるDE-COPを提案する。
BookTectionは165冊の書籍から抜粋を抽出したベンチマークで、モデルによるトレーニングの切り離しの後に作成します。
実験の結果、DE-COPは検出性能が9.6%向上した。
論文 参考訳(メタデータ) (2024-02-15T12:17:15Z) - AuthentiGPT: Detecting Machine-Generated Text via Black-Box Language
Models Denoising [4.924903495092775]
大きな言語モデル(LLM)は、人間の文章を忠実に模倣するテキストを作成し、潜在的に誤用につながる可能性がある。
本稿では,機械生成テキストと人文テキストを区別する効率的な分類器であるAuthentiGPTを提案する。
ドメイン固有のデータセットの0.918 AUROCスコアで、AuthentiGPTは、他の商用アルゴリズムよりも有効であることを示した。
論文 参考訳(メタデータ) (2023-11-13T19:36:54Z) - SeqXGPT: Sentence-Level AI-Generated Text Detection [62.3792779440284]
大規模言語モデル(LLM)を用いた文書の合成による文レベル検出の課題について紹介する。
次に,文レベルのAIGT検出機能として,ホワイトボックスLEMのログ確率リストを利用した textbfSequence textbfX (Check) textbfGPT を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:18:53Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。