論文の概要: SimMark: A Robust Sentence-Level Similarity-Based Watermarking Algorithm for Large Language Models
- arxiv url: http://arxiv.org/abs/2502.02787v1
- Date: Wed, 05 Feb 2025 00:21:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:29:29.943667
- Title: SimMark: A Robust Sentence-Level Similarity-Based Watermarking Algorithm for Large Language Models
- Title(参考訳): SimMark: 大規模言語モデルのためのロバストな文レベル類似性に基づく透かしアルゴリズム
- Authors: Amirhossein Dabiriaghdam, Lele Wang,
- Abstract要約: SimMarkは、大規模な言語モデルの出力を、モデルの内部ログへのアクセスを必要とせずにトレース可能にする、ポストホックな透かしアルゴリズムである。
実験結果から,SimMark は LLM 生成コンテンツのロバストな透かしのための新しいベンチマークを作成した。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License:
- Abstract: The rapid proliferation of large language models (LLMs) has created an urgent need for reliable methods to detect whether a text is generated by such models. In this paper, we propose SimMark, a posthoc watermarking algorithm that makes LLMs' outputs traceable without requiring access to the model's internal logits, enabling compatibility with a wide range of LLMs, including API-only models. By leveraging the similarity of semantic sentence embeddings and rejection sampling to impose detectable statistical patterns imperceptible to humans, and employing a soft counting mechanism, SimMark achieves robustness against paraphrasing attacks. Experimental results demonstrate that SimMark sets a new benchmark for robust watermarking of LLM-generated content, surpassing prior sentence-level watermarking techniques in robustness, sampling efficiency, and applicability across diverse domains, all while preserving the text quality.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な普及により、そのようなモデルによってテキストが生成されるかどうかを検知する信頼性の高い手法が緊急に必要になった。
本稿では,LLMの内部ロジットへのアクセスを必要とせずに,LLMの出力をトレース可能にするポストホックな透かしアルゴリズムであるSimMarkを提案する。
意味文の埋め込みと拒絶サンプリングの類似性を活用して、人間には認識できない統計的パターンを検知し、ソフトカウント機構を利用することで、SimMarkはパラフレーズ攻撃に対する堅牢性を実現する。
実験結果から,SimMarkは,テキストの品質を維持しつつ,文章レベルの透かし技術よりも頑健性,サンプリング効率,適用性に優れる,LCM生成コンテンツのロバストな透かしのための新しいベンチマークを作成した。
関連論文リスト
- Improved Unbiased Watermark for Large Language Models [59.00698153097887]
本稿では,非バイアスのマルチチャネル型透かしであるMCmarkを紹介する。
MCmarkは言語モデルの本来の分布を保存する。
既存の非バイアスの透かしよりも検出性と堅牢性を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-16T21:02:36Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - FreqMark: Frequency-Based Watermark for Sentence-Level Detection of LLM-Generated Text [31.600659350609476]
FreqMarkは、トークンサンプリングプロセス中にLarge Language Models (LLMs) 生成したテキストに周波数ベースの透かしを埋め込む。
メソッドは周期的な信号を利用してトークンの選択をガイドし、短い時間フーリエ変換(STFT)分析で検出できる透かしを生成する。
実験では、FreqMarkの堅牢性と精度を示し、さまざまな攻撃シナリオに対して強力な検出能力を示している。
論文 参考訳(メタデータ) (2024-10-09T05:01:48Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z) - Topic-Based Watermarks for Large Language Models [46.71493672772134]
本稿では,Large Language Model (LLM) 出力のための軽量なトピック誘導型透かし方式を提案する。
本手法は,Google の SynthID-Text など,業界をリードするシステムに匹敵する難易度を実現する。
論文 参考訳(メタデータ) (2024-04-02T17:49:40Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。