論文の概要: Position: LLM Watermarking Should Align Stakeholders' Incentives for Practical Adoption
- arxiv url: http://arxiv.org/abs/2510.18333v1
- Date: Tue, 21 Oct 2025 06:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.029799
- Title: Position: LLM Watermarking Should Align Stakeholders' Incentives for Practical Adoption
- Title(参考訳): ポジション: LLMウォーターマーキングは、実践的採用のための株主のインセンティブを調整すべきである
- Authors: Yepeng Liu, Xuandong Zhao, Dawn Song, Gregory W. Wornell, Yuheng Bu,
- Abstract要約: 私たちはこのレンズを通して透かしの3つのクラスを見直します。
emphLLMテキスト透かしは、反ミスツールとしてのみフレーム化された場合に、控えめなプロバイダの利点を提供する。
emphIn-context watermarking (ICW)は、会議の主催者や教育者といった信頼できる関係者向けに調整されている。
- 参考スコア(独自算出の注目度): 94.887133335656
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite progress in watermarking algorithms for large language models (LLMs), real-world deployment remains limited. We argue that this gap stems from misaligned incentives among LLM providers, platforms, and end users, which manifest as four key barriers: competitive risk, detection-tool governance, robustness concerns and attribution issues. We revisit three classes of watermarking through this lens. \emph{Model watermarking} naturally aligns with LLM provider interests, yet faces new challenges in open-source ecosystems. \emph{LLM text watermarking} offers modest provider benefit when framed solely as an anti-misuse tool, but can gain traction in narrowly scoped settings such as dataset de-contamination or user-controlled provenance. \emph{In-context watermarking} (ICW) is tailored for trusted parties, such as conference organizers or educators, who embed hidden watermarking instructions into documents. If a dishonest reviewer or student submits this text to an LLM, the output carries a detectable watermark indicating misuse. This setup aligns incentives: users experience no quality loss, trusted parties gain a detection tool, and LLM providers remain neutral by simply following watermark instructions. We advocate for a broader exploration of incentive-aligned methods, with ICW as an example, in domains where trusted parties need reliable tools to detect misuse. More broadly, we distill design principles for incentive-aligned, domain-specific watermarking and outline future research directions. Our position is that the practical adoption of LLM watermarking requires aligning stakeholder incentives in targeted application domains and fostering active community engagement.
- Abstract(参考訳): 大規模言語モデル(LLM)の透かしアルゴリズムの進歩にもかかわらず、現実世界の展開は制限されている。
このギャップは、LLMプロバイダ、プラットフォーム、エンドユーザ間の不整合インセンティブに起因するものであり、競争リスク、検出ツールガバナンス、堅牢性に関する懸念、帰属問題という4つの重要な障壁として現れます。
私たちはこのレンズを通して透かしの3つのクラスを見直します。
emph{Model watermarking} は LLM プロバイダの関心事と自然に一致するが,オープンソースエコシステムでは新たな課題に直面している。
\emph{LLM text watermarking} は、アンチミスツールとしてのみフレーム化された場合に、控えめなプロバイダのメリットを提供するが、データセットの削除やユーザ管理された前例のような、狭い範囲の設定では、勢いを増す可能性がある。
\emph{In-context watermarking} (ICW) は、会議の主催者や教育者など、文書に隠された透かしの指示を埋め込む信頼できる関係者向けに調整されている。
不正なレビュアーや学生がこのテキストをLSMに送信した場合、出力は誤用を示す検出可能な透かしを運ぶ。
ユーザーは品質損失を経験せず、信頼できる関係者は検出ツールを入手し、LCMプロバイダは単に透かしの指示に従うだけで中立を維持します。
我々は、信頼できる関係者が誤用を検出するための信頼できるツールを必要とする領域において、ICWを例として、インセンティブに整合した手法のより広範な探索を提唱する。
より広範に、インセンティブに整合したドメイン固有の透かしの設計原則を蒸留し、今後の研究方向性を概説する。
我々の立場は、LLM透かしの実践には、対象のアプリケーションドメインにおけるステークホルダインセンティブの整合化と、アクティブなコミュニティエンゲージメントの育成が不可欠である。
関連論文リスト
- Learning to Watermark: A Selective Watermarking Framework for Large Language Models via Multi-Objective Optimization [17.15048594237333]
既存の透かし技術は、しばしば透かし検出性と生成されたテキスト品質の間のトレードオフに直面している。
本稿では,新しい選択型透かしフレームワークであるLearning to Watermark (LTW)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T01:07:38Z) - In-Context Watermarks for Large Language Models [71.29952527565749]
In-Context Watermarking (ICW)は、インシデントエンジニアリングのみで生成されたテキストに透かしを埋め込む。
粒度の異なる4つのICW戦略について検討した。
本実験は,モデルに依存しない実用的な透かし手法としてのICWの実現可能性を検証するものである。
論文 参考訳(メタデータ) (2025-05-22T17:24:51Z) - Mark Your LLM: Detecting the Misuse of Open-Source Large Language Models via Watermarking [40.951792492059646]
本研究は,オープンソースの大規模言語モデル(LLM)における2つの誤用シナリオを定義する。
本稿では,これらの文脈における推論時透かし蒸留とバックドア透かしの適用について検討する。
実験の結果, 後方透かしはIP Violationを効果的に検出でき, 推論時透かし蒸留はどちらのシナリオにも適用可能であることがわかった。
論文 参考訳(メタデータ) (2025-03-06T17:24:06Z) - Breaking Distortion-free Watermarks in Large Language Models [17.56485872604935]
現在のLLM透かし方式が専門家の敵に弱いという懸念が高まっている。
適応的なプロンプトとソートに基づくアルゴリズムを用いてLLMを透かしの秘密鍵を正確に復元する。
論文 参考訳(メタデータ) (2025-02-25T19:52:55Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。