論文の概要: Echoes of Ownership: Adversarial-Guided Dual Injection for Copyright Protection in MLLMs
- arxiv url: http://arxiv.org/abs/2602.18845v1
- Date: Sat, 21 Feb 2026 14:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.350276
- Title: Echoes of Ownership: Adversarial-Guided Dual Injection for Copyright Protection in MLLMs
- Title(参考訳): 所有者のエコー:MLLMにおける著作権保護のための対向誘導デュアルインジェクション
- Authors: Chengwei Xia, Fan Ma, Ruijie Quan, Yunqiu Xu, Kun Zhan, Yi Yang,
- Abstract要約: モデル版の帰属と所有権に関する論争が 頻繁に行われています
本稿では,MLLMの著作権トリガを生成するためのフレームワークを提案する。
本手法は,学習可能なテンソルとして処理し,オーナーシップ関連セマンティック情報の二重注入による逆最適化を行うことにより,トラッキングトリガ画像を構築する。
- 参考スコア(独自算出の注目度): 43.88758733745951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid deployment and widespread adoption of multimodal large language models (MLLMs), disputes regarding model version attribution and ownership have become increasingly frequent, raising significant concerns about intellectual property protection. In this paper, we propose a framework for generating copyright triggers for MLLMs, enabling model publishers to embed verifiable ownership information into the model. The goal is to construct trigger images that elicit ownership-related textual responses exclusively in fine-tuned derivatives of the original model, while remaining inert in other non-derivative models. Our method constructs a tracking trigger image by treating the image as a learnable tensor, performing adversarial optimization with dual-injection of ownership-relevant semantic information. The first injection is achieved by enforcing textual consistency between the output of an auxiliary MLLM and a predefined ownership-relevant target text; the consistency loss is backpropagated to inject this ownership-related information into the image. The second injection is performed at the semantic-level by minimizing the distance between the CLIP features of the image and those of the target text. Furthermore, we introduce an additional adversarial training stage involving the auxiliary model derived from the original model itself. This auxiliary model is specifically trained to resist generating ownership-relevant target text, thereby enhancing robustness in heavily fine-tuned derivative models. Extensive experiments demonstrate the effectiveness of our dual-injection approach in tracking model lineage under various fine-tuning and domain-shift scenarios.
- Abstract(参考訳): MLLM(Multimodal large language model)の急速な展開と普及に伴い、モデルバージョン属性やオーナシップに関する論争が頻発し、知的財産保護に関する懸念が高まっている。
本稿では,MLLMの著作権トリガを生成するためのフレームワークを提案する。
目標は、原モデルの微調整された微分にのみ、所有権に関連するテキスト応答を誘発するトリガー画像を構築することであり、他の非派生モデルでは不活性なままである。
本手法は,学習可能なテンソルとして処理し,オーナーシップ関連セマンティック情報の二重注入による逆最適化を行うことにより,トラッキングトリガ画像を構築する。
第1のインジェクションは、補助MLLMの出力と予め定義されたオーナシップ関連ターゲットテキストとのテキスト一貫性を強制することにより達成される。
第2のインジェクションは、画像のCLIP特徴とターゲットテキストの距離を最小化し、セマンティックレベルで実行される。
さらに、原モデル自体から派生した補助モデルを含む追加の対角訓練段階を導入する。
この補助モデルは、オーナーシップ関連ターゲットテキストの生成に抵抗し、高度に微調整されたデリバティブモデルにおいて堅牢性を高めるよう特別に訓練されている。
様々な微調整シナリオとドメインシフトシナリオ下でのモデル系統の追跡における二重注入手法の有効性を広範囲にわたる実験により実証した。
関連論文リスト
- DeLeaker: Dynamic Inference-Time Reweighting For Semantic Leakage Mitigation in Text-to-Image Models [55.30555646945055]
テキスト・ツー・イメージ(T2I)モデルはセマンティック・リークに対して脆弱である。
DeLeakerは、モデルのアテンションマップに直接介入することで、漏洩を緩和する軽量なアプローチである。
SLIMはセマンティックリークに特化した最初のデータセットである。
論文 参考訳(メタデータ) (2025-10-16T17:39:21Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - AGATE: Stealthy Black-box Watermarking for Multimodal Model Copyright Protection [26.066755429896926]
バックドアの透かしとしてOoD(Out-of-Distribution)データを選択し、著作権保護のためにオリジナルのモデルを再訓練する。
既存の方法は、敵による悪意のある検出と偽造を受けやすいため、透かしの回避につながる。
マルチモーダルモデル著作権保護におけるステルスネスとロバストネスの課題に対処するために,モデル-アンダーラインに依存しないブラックボックスのバックドアWunderlineatermarking Framework (AGATE)を提案する。
論文 参考訳(メタデータ) (2025-04-28T14:52:01Z) - Tracking the Copyright of Large Vision-Language Models through Parameter Learning Adversarial Images [9.351260848685229]
大規模視覚言語モデル (LVLM) は画像理解と対話能力に優れていた。
広く利用できるようになったことで、不正使用や著作権侵害に対する懸念が高まっている。
本稿では,LVLMの著作権をオリジナルモデルを変更することなく追跡する学習攻撃(PLA)手法を提案する。
論文 参考訳(メタデータ) (2025-02-23T14:49:34Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - PromptLA: Towards Integrity Verification of Black-box Text-to-Image Diffusion Models [17.12906933388337]
悪意のあるアクターは、不正なコンテンツを生成するためにT2I拡散モデルを微調整することができる。
本稿では,学習オートマトン(PromptLA)に基づく新しいプロンプト選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-20T07:24:32Z) - A Fingerprint for Large Language Models [10.63985246068255]
大規模言語モデル(LLM)のための新しいブラックボックスフィンガープリント手法を提案する。
実験結果から,提案手法はPEFT攻撃に対するオーナシップ検証とロバスト性において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-07-01T12:25:42Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。