論文の概要: Temperature Matters: Enhancing Watermark Robustness Against Paraphrasing Attacks
- arxiv url: http://arxiv.org/abs/2506.22623v1
- Date: Fri, 27 Jun 2025 20:39:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.48918
- Title: Temperature Matters: Enhancing Watermark Robustness Against Paraphrasing Attacks
- Title(参考訳): 温度問題: パラフレーズ攻撃に対するウォーターマークのロバスト性を高める
- Authors: Badr Youbi Idrissi, Monica Millunzi, Amelia Sorrenti, Lorenzo Baraldi, Daryna Dementieva,
- Abstract要約: 本研究プロジェクトは,合成テキストの検出のための新しい方法論の開発に重点を置いている。
本稿では,その頑健さを評価するために,パラフレーズ付きテキストを用いて,革新的な透かし手法を提案し,厳密な評価を行う。
- 参考スコア(独自算出の注目度): 21.416846120175368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the present-day scenario, Large Language Models (LLMs) are establishing their presence as powerful instruments permeating various sectors of society. While their utility offers valuable support to individuals, there are multiple concerns over potential misuse. Consequently, some academic endeavors have sought to introduce watermarking techniques, characterized by the inclusion of markers within machine-generated text, to facilitate algorithmic identification. This research project is focused on the development of a novel methodology for the detection of synthetic text, with the overarching goal of ensuring the ethical application of LLMs in AI-driven text generation. The investigation commences with replicating findings from a previous baseline study, thereby underscoring its susceptibility to variations in the underlying generation model. Subsequently, we propose an innovative watermarking approach and subject it to rigorous evaluation, employing paraphrased generated text to asses its robustness. Experimental results highlight the robustness of our proposal compared to the~\cite{aarson} watermarking method.
- Abstract(参考訳): 現在のシナリオでは、Large Language Models (LLMs) は、社会の様々な分野に浸透する強力な道具としての存在を確立している。
彼らのユーティリティは個人に価値あるサポートを提供するが、潜在的な誤用については複数の懸念がある。
その結果、いくつかの学術的取り組みは、アルゴリズムの識別を容易にするために、機械生成テキストにマーカーを組み込むことによって特徴付けられる透かし技術を導入しようとした。
本研究プロジェクトは,AIによるテキスト生成におけるLLMの倫理的適用を保証することを目的とした,合成テキストの検出のための新しい方法論の開発に重点を置いている。
この調査は、前回のベースライン研究の複製結果から始まり、基礎となる生成モデルの変動に対する感受性を裏付けるものである。
続いて,新しい透かし手法を提案し,その頑健さを評価するためにパラフレーズ付きテキストを用いた厳密な評価を行う。
実験結果から,提案手法のロバスト性について,-\cite{aarson} ウォーターマーキング法と比較した。
関連論文リスト
- GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Hidding the Ghostwriters: An Adversarial Evaluation of AI-Generated
Student Essay Detection [29.433764586753956]
大規模言語モデル(LLM)は、テキスト生成タスクにおいて顕著な機能を示した。
これらのモデルの利用には、盗作行為、偽ニュースの普及、教育演習における問題など、固有のリスクが伴う。
本稿では,AI生成した学生エッセイデータセットであるAIG-ASAPを構築し,このギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-02-01T08:11:56Z) - A Survey of Text Watermarking in the Era of Large Language Models [91.36874607025909]
テキスト透かしアルゴリズムは、テキストコンテンツの著作権を保護するために不可欠である。
大規模言語モデル(LLM)の最近の進歩は、これらの技術に革命をもたらした。
本稿では,テキスト透かし技術の現状を包括的に調査する。
論文 参考訳(メタデータ) (2023-12-13T06:11:42Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Provable Robust Watermarking for AI-Generated Text [41.5510809722375]
We propose a robust and high-quality watermark method, Unigram-Watermark。
提案手法は,テキストの編集やパラフレージングに頑健で,生成品質,透かし検出の精度が保証されていることを実証する。
論文 参考訳(メタデータ) (2023-06-30T07:24:32Z) - DeepTextMark: A Deep Learning-Driven Text Watermarking Approach for
Identifying Large Language Model Generated Text [1.249418440326334]
テキストが人間によって書かれたものなのか、あるいはLarge Language Modelsによって生成されたものなのかを識別することの重要性が最重要になっている。
DeepTextMarkは、テキスト生成フレームワークに対して実行可能な"アドオン"ソリューションを提供する。
実験による評価は,DeepTextMarkの非知覚性,検出精度の向上,堅牢性の向上,信頼性の向上,迅速な実行を裏付けるものである。
論文 参考訳(メタデータ) (2023-05-09T21:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。