論文の概要: BanglaLorica: Design and Evaluation of a Robust Watermarking Algorithm for Large Language Models in Bangla Text Generation
- arxiv url: http://arxiv.org/abs/2601.04534v1
- Date: Thu, 08 Jan 2026 03:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.005321
- Title: BanglaLorica: Design and Evaluation of a Robust Watermarking Algorithm for Large Language Models in Bangla Text Generation
- Title(参考訳): BanglaLorica:Banglaテキスト生成における大規模言語モデルのためのロバストな透かしアルゴリズムの設計と評価
- Authors: Amit Bin Tariqul, A N M Zahid Hossain Milkan, Sahab-Al-Chowdhury, Syed Rifat Raiyan, Hasan Mahmud, Md Kamrul Hasan,
- Abstract要約: 本研究は,最新のテキスト透かし手法の体系的評価を初めて行ったものである。
組込み時間とポストジェネレーション透かしを組み合わせた層状透かし方式を提案する。
本研究は,多言語透かしにおけるロバスト性品質のトレードオフを定量化し,実践的,トレーニング不要なソリューションとして層状透かしを確立した。
- 参考スコア(独自算出の注目度): 2.464003792743989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) are increasingly deployed for text generation, watermarking has become essential for authorship attribution, intellectual property protection, and misuse detection. While existing watermarking methods perform well in high-resource languages, their robustness in low-resource languages remains underexplored. This work presents the first systematic evaluation of state-of-the-art text watermarking methods: KGW, Exponential Sampling (EXP), and Waterfall, for Bangla LLM text generation under cross-lingual round-trip translation (RTT) attacks. Under benign conditions, KGW and EXP achieve high detection accuracy (>88%) with negligible perplexity and ROUGE degradation. However, RTT causes detection accuracy to collapse below RTT causes detection accuracy to collapse to 9-13%, indicating a fundamental failure of token-level watermarking. To address this, we propose a layered watermarking strategy that combines embedding-time and post-generation watermarks. Experimental results show that layered watermarking improves post-RTT detection accuracy by 25-35%, achieving 40-50% accuracy, representing a 3$\times$ to 4$\times$ relative improvement over single-layer methods, at the cost of controlled semantic degradation. Our findings quantify the robustness-quality trade-off in multilingual watermarking and establish layered watermarking as a practical, training-free solution for low-resource languages such as Bangla. Our code and data will be made public.
- Abstract(参考訳): 大規模言語モデル (LLM) がテキスト生成のためにますますデプロイされるにつれて、著者の帰属、知的財産保護、誤用検出にウォーターマーキングが不可欠になっている。
既存のウォーターマーキング手法は、高リソース言語ではよく機能するが、低リソース言語のロバスト性はいまだに未調査である。
KGW, Exponential Sampling (EXP), Waterfall, for Bangla LLM text generation under cross-lingual round-trip translation (RTT) attack。
良性条件下では、KGWとEXPは、無視できるパープレキシティとROUGE劣化を伴う高い検出精度(>88%)を達成する。
しかし、RTTは検出精度をRTT以下に低下させ、検出精度を9-13%に低下させ、トークンレベルの透かしの根本的な失敗を示す。
そこで本研究では,組込み時間とポストジェネレーション透かしを組み合わせた階層型透かし手法を提案する。
実験結果から,層状透かしによりRTT後検出精度が25~35%向上し,40~50%の精度が得られた。
本研究は,多言語透かしにおけるロバスト性品質のトレードオフを定量化し,Banglaなどの低リソース言語に対する実践的,トレーニング不要なソリューションとして階層化透かしを確立した。
私たちのコードとデータは公開されます。
関連論文リスト
- GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Watermarking Language Models with Error Correcting Codes [39.77377710480125]
本稿では,誤り訂正符号を用いて統計的信号を符号化する透かしフレームワークを提案する。
本手法は,ロバストバイナリコード (RBC) の透かしと呼ばれ,品質の顕著な劣化を生じさせない。
私たちの経験的発見は、私たちの透かしは速く、強力で、堅牢であり、最先端のものと好意的に比較していることを示唆しています。
論文 参考訳(メタデータ) (2024-06-12T05:13:09Z) - Can Watermarks Survive Translation? On the Cross-lingual Consistency of Text Watermark for Large Language Models [48.409979469683975]
テキスト透かしにおける言語間整合性の概念を紹介する。
予備的な実証実験の結果、現在のテキスト透かし技術は、テキストが様々な言語に翻訳されるときに一貫性が欠如していることが判明した。
透かしを回避するための言語横断型透かし除去攻撃(CWRA)を提案する。
論文 参考訳(メタデータ) (2024-02-21T18:48:38Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。