論文の概要: PRIVMARK: Private Large Language Models Watermarking with MPC
- arxiv url: http://arxiv.org/abs/2509.24624v1
- Date: Mon, 29 Sep 2025 11:34:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.942742
- Title: PRIVMARK: Private Large Language Models Watermarking with MPC
- Title(参考訳): PRIVMARK: MPCによる個人用大規模言語モデルの透かし
- Authors: Thomas Fargues, Ye Dong, Tianwei Zhang, Jin-Song Dong,
- Abstract要約: プライバシ問題に対処するために,セキュアなマルチパーティ計算 (MPC) ベースのプライベート LLM 透かしフレームワーク PRIVMARK を提案する。
本研究では,最先端LLMの透かし手法であるPostMarkを調査し,その基本動作を定式化する。
そこで我々は,MPCプリミティブをブラックボックス方式で,これらの操作のための効率的なプロトコルを構築した。
このようにして、PRIVMARKは、複数のパーティが、モデルの重みを単一のコンピューティングパーティに公開することなく、LCMの出力を協調的にウォーターマークすることができる。
- 参考スコア(独自算出の注目度): 21.268170031561002
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid growth of Large Language Models (LLMs) has highlighted the pressing need for reliable mechanisms to verify content ownership and ensure traceability. Watermarking offers a promising path forward, but it remains limited by privacy concerns in sensitive scenarios, as traditional approaches often require direct access to a model's parameters or its training data. In this work, we propose a secure multi-party computation (MPC)-based private LLMs watermarking framework, PRIVMARK, to address the concerns. Concretely, we investigate PostMark (EMNLP'2024), one of the state-of-the-art LLMs Watermarking methods, and formulate its basic operations. Then, we construct efficient protocols for these operations using the MPC primitives in a black-box manner. In this way, PRIVMARK enables multiple parties to collaboratively watermark an LLM's output without exposing the model's weights to any single computing party. We implement PRIVMARK using SecretFlow-SPU (USENIX ATC'2023) and evaluate its performance using the ABY3 (CCS'2018) backend. The experimental results show that PRIVMARK achieves semantically identical results compared to the plaintext baseline without MPC and is resistant against paraphrasing and removing attacks with reasonable efficiency.
- Abstract(参考訳): LLM(Large Language Models)の急速な成長は、コンテンツのオーナシップを検証し、トレーサビリティを確保するための信頼性の高いメカニズムの必要性を強調している。
従来のアプローチでは、しばしばモデルのパラメータやトレーニングデータに直接アクセスする必要があるため、機密性のあるシナリオにおけるプライバシー上の懸念によって制限されている。
本研究では,セキュアなマルチパーティ計算(MPC)に基づくプライベートLLM透かしフレームワークであるPRIVMARKを提案する。
具体的には,最新のLLMの透かし手法であるPostMark (EMNLP'2024) について検討し,その基本動作を定式化する。
そこで我々は,MPCプリミティブをブラックボックス方式で,これらの操作のための効率的なプロトコルを構築した。
このようにして、PRIVMARKは、複数のパーティが、モデルの重みを単一のコンピューティングパーティに公開することなく、LCMの出力を協調的にウォーターマークすることができる。
本研究では,SecretFlow-SPU (USENIX ATC'2023) を用いてPRIVMARKを実装し,ABY3 (CCS'2018) バックエンドを用いてその性能を評価する。
実験の結果, PRIVMARKは, MPCのない平文ベースラインと比較して意味的に同一な結果を示し, パラフレージングや攻撃の除去に抵抗性があることがわかった。
関連論文リスト
- PMark: Towards Robust and Distortion-free Semantic-level Watermarking with Channel Constraints [49.2373408329323]
大規模言語モデル(LLM)のための透かしレベル(SWM)に関する新しい理論フレームワークを提案する。
PMarkは単純だが強力なSWM手法であり、サンプリングチャネルを通して中央値の次文を動的に推定する。
実験結果から,PMarkはテキスト品質とパラフレージングの両方において,既存のSWMベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2025-09-25T12:08:31Z) - Agentic Privacy-Preserving Machine Learning [5.695349155812586]
プライバシ保護機械学習(PPML)は、AIにおけるデータのプライバシを保証するために重要である。
本稿では,LPMにおけるPPMLの実現を目的として,Agentic-PPMLという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-30T08:20:45Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - A Pervasive, Efficient and Private Future: Realizing Privacy-Preserving Machine Learning Through Hybrid Homomorphic Encryption [2.434439232485276]
プライバシ保存機械学習(PPML)手法は、MLモデルのプライバシとセキュリティリスクを軽減するために提案されている。
これらの課題を克服するために、対称暗号とHEを組み合わせた現代の暗号方式が導入された。
本研究は,エッジデバイス向けのリソースフレンドリなPPMLプロトコルを提案することにより,HHEをML分野に導入する。
論文 参考訳(メタデータ) (2024-09-10T11:04:14Z) - PostMark: A Robust Blackbox Watermark for Large Language Models [56.63560134428716]
モジュール式ポストホックウォーターマーキング手法であるPostMarkを開発した。
PostMarkはロジットアクセスを必要としないため、サードパーティによって実装することができる。
PostMarkは既存のウォーターマーキング手法よりも,攻撃を言い換える方が堅牢であることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:27:14Z) - Privacy Preserving Multi-Agent Reinforcement Learning in Supply Chains [5.436598805836688]
本稿では,サプライチェーンの文脈におけるマルチエージェント強化学習(MARL)のプライバシー問題に対処する。
本稿では,MARL設定におけるセキュアなマルチパーティ計算フレームワークを利用したゲーム理論,プライバシ関連機構を提案する。
プライバシ保護方式で浮動小数点演算を行う学習機構を提案する。
論文 参考訳(メタデータ) (2023-12-09T21:25:21Z) - Source Attribution for Large Language Model-Generated Data [57.85840382230037]
合成テキストの生成に寄与したデータプロバイダを特定することで、ソース属性を実行できることが不可欠である。
我々はこの問題を透かしによって取り組めることを示した。
本稿では,アルゴリズム設計により,これらの重要な特性を満足する情報源属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。