論文の概要: Watermarking Large Language Models in Europe: Interpreting the AI Act in Light of Technology
- arxiv url: http://arxiv.org/abs/2511.03641v1
- Date: Wed, 05 Nov 2025 17:00:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.498293
- Title: Watermarking Large Language Models in Europe: Interpreting the AI Act in Light of Technology
- Title(参考訳): ヨーロッパにおける大規模言語モデルの透かし:AI法をテクノロジーの光で解釈する
- Authors: Thomas Souverain,
- Abstract要約: 第50条及び第133条は,「十分信頼性,相互運用性,有効性及び堅牢性」の標章方法を求める。
しかし、大規模言語モデルのためのウォーターマークの急速に進化し異質な景観は、これらの4つの標準をどのように具体的な評価に変換するかを決定するのを困難にしている。
本稿では,この課題に対処し,透かし技術の多元性における欧州要求のノルマティビティを固定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To foster trustworthy Artificial Intelligence (AI) within the European Union, the AI Act requires providers to mark and detect the outputs of their general-purpose models. The Article 50 and Recital 133 call for marking methods that are ''sufficiently reliable, interoperable, effective and robust''. Yet, the rapidly evolving and heterogeneous landscape of watermarks for Large Language Models (LLMs) makes it difficult to determine how these four standards can be translated into concrete and measurable evaluations. Our paper addresses this challenge, anchoring the normativity of European requirements in the multiplicity of watermarking techniques. Introducing clear and distinct concepts on LLM watermarking, our contribution is threefold. (1) Watermarking Categorisation: We propose an accessible taxonomy of watermarking methods according to the stage of the LLM lifecycle at which they are applied - before, during, or after training, and during next-token distribution or sampling. (2) Watermarking Evaluation: We interpret the EU AI Act's requirements by mapping each criterion with state-of-the-art evaluations on robustness and detectability of the watermark, and of quality of the LLM. Since interoperability remains largely untheorised in LLM watermarking research, we propose three normative dimensions to frame its assessment. (3) Watermarking Comparison: We compare current watermarking methods for LLMs against the operationalised European criteria and show that no approach yet satisfies all four standards. Encouraged by emerging empirical tests, we recommend further research into watermarking directly embedded within the low-level architecture of LLMs.
- Abstract(参考訳): 欧州連合内で信頼できる人工知能(AI)を育むために、AI法は提供者に対して、汎用モデルの出力をマークし、検出することを要求している。
第50条及び第133条は、「十分に信頼性があり、相互運用可能で、効果的で、堅牢」な標章法を求めている。
しかし,Large Language Models (LLMs) に対する透かしの急速な発展と異質化は,これらの4つの標準を具体的かつ測定可能な評価にどのように変換できるかを決定するのを困難にしている。
本稿では,この課題に対処し,透かし技術の多元性における欧州要求のノルマティビティを固定する。
LLM透かしに明快で独特な概念を導入することで、我々の貢献は3倍になる。
1) 透かし分類: 本研究は, LLMライフサイクルの段階(前・中・後・次点分布・サンプリング)に応じて, 透かし法を適用可能な分類法を提案する。
2) 透かし評価: それぞれの基準を, 透かしの堅牢性と検出性, LLMの品質に関する最先端評価にマッピングすることにより, 欧州連合のAI法要件を解釈する。
LLM透かしの研究において、相互運用性はほとんど理論化されていないため、我々は、その評価を枠組みとして、3つの規範的次元を提案する。
3) 透かし比較: LLMの現在の透かし法と欧州の運用基準を比較し, まだ4つの基準をすべて満たさないことを示す。
本稿では,LLMの低レベルアーキテクチャに直接埋め込まれた透かしのさらなる研究を推奨する。
関連論文リスト
- In-Context Watermarks for Large Language Models [71.29952527565749]
In-Context Watermarking (ICW)は、インシデントエンジニアリングのみで生成されたテキストに透かしを埋め込む。
粒度の異なる4つのICW戦略について検討した。
本実験は,モデルに依存しない実用的な透かし手法としてのICWの実現可能性を検証するものである。
論文 参考訳(メタデータ) (2025-05-22T17:24:51Z) - Watermarking Language Models through Language Models [1.249418440326334]
入力レベルで完全に動作するプロンプト誘導型透かしフレームワークを導入し、モデルパラメータへのアクセスやロジットの復号は不要である。
GPT-4o, Mistral, LLaMA3, DeepSeek など 25 種類の LM と Prompting の組み合わせについて検討した。
実験の結果, 透かし信号はアーキテクチャ全体にわたって一般化し, 微調整, モデル蒸留, 即時攻撃下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-11-07T19:16:49Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z) - Three Bricks to Consolidate Watermarks for Large Language Models [13.559357913735122]
本研究は,3つの理論的および経験的考察に基づいて,大規模言語モデルの透かしを統合する。
まず、低い偽陽性率でも有効である、堅牢な理論的保証を提供する新しい統計テストを導入する。
第二に、自然言語処理の分野における古典的なベンチマークを用いた透かしの有効性を比較し、実世界の応用性について考察する。
論文 参考訳(メタデータ) (2023-07-26T17:56:36Z) - Provable Robust Watermarking for AI-Generated Text [41.5510809722375]
We propose a robust and high-quality watermark method, Unigram-Watermark。
提案手法は,テキストの編集やパラフレージングに頑健で,生成品質,透かし検出の精度が保証されていることを実証する。
論文 参考訳(メタデータ) (2023-06-30T07:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。