論文の概要: Copyright Detective: A Forensic System to Evidence LLMs Flickering Copyright Leakage Risks
- arxiv url: http://arxiv.org/abs/2602.05252v1
- Date: Thu, 05 Feb 2026 03:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.740777
- Title: Copyright Detective: A Forensic System to Evidence LLMs Flickering Copyright Leakage Risks
- Title(参考訳): 著作権保護:LLMが著作権漏洩リスクを浮き彫りにする法医学的システム
- Authors: Guangwei Zhang, Jianing Zhu, Cheng Qian, Neil Gong, Rada Mihalcea, Zhaozhuo Xu, Jingrui He, Jiaqi Ma, Yun Huang, Chaowei Xiao, Bo Li, Ahmed Abbasi, Dongwon Lee, Heng Ji, Denghui Zhang,
- Abstract要約: Copyright Detectiveは、LCM出力の潜在的な著作権リスクを検出し、分析し、視覚化するためのインタラクティブな法医学システムである。
コンテンツリコールテスト、パラフレーズレベルの類似性分析、説得的探索、未学習検証など、複数の検出パラダイムを統合している。
- 参考スコア(独自算出の注目度): 123.36265437655187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Copyright Detective, the first interactive forensic system for detecting, analyzing, and visualizing potential copyright risks in LLM outputs. The system treats copyright infringement versus compliance as an evidence discovery process rather than a static classification task due to the complex nature of copyright law. It integrates multiple detection paradigms, including content recall testing, paraphrase-level similarity analysis, persuasive jailbreak probing, and unlearning verification, within a unified and extensible framework. Through interactive prompting, response collection, and iterative workflows, our system enables systematic auditing of verbatim memorization and paraphrase-level leakage, supporting responsible deployment and transparent evaluation of LLM copyright risks even with black-box access.
- Abstract(参考訳): LLM出力の潜在的な著作権リスクを検出し,分析し,可視化するための,最初のインタラクティブな法医学システムであるPhilipty Detectiveを提案する。
このシステムは、著作権法の複雑な性質から、静的な分類タスクではなく、証拠発見プロセスとして、著作権侵害とコンプライアンスを扱います。
コンテンツリコールテスト、パラフレーズレベルの類似性分析、説得力のあるジェイルブレイク探索、未学習検証など、複数の検出パラダイムを統一的で拡張可能なフレームワークに統合する。
対話型プロンプト,応答収集,反復的ワークフローを通じて,ブラックボックスアクセスにおいても,副詞レベルの漏洩を系統的に監査し,責任あるデプロイメントとLLM著作権リスクの透過的評価を支援する。
関連論文リスト
- CoTGuard: Using Chain-of-Thought Triggering for Copyright Protection in Multi-Agent LLM Systems [55.57181090183713]
我々は、Chain-of-Thought推論内でトリガーベースの検出を活用する著作権保護のための新しいフレームワークであるCoTGuardを紹介する。
具体的には、特定のCoTセグメントをアクティベートし、特定のトリガクエリをエージェントプロンプトに埋め込むことで、未許可コンテンツ再生の中間的推論ステップを監視する。
このアプローチは、協調エージェントシナリオにおける著作権侵害の微細かつ解釈可能な検出を可能にする。
論文 参考訳(メタデータ) (2025-05-26T01:42:37Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - Measuring Copyright Risks of Large Language Model via Partial Information Probing [14.067687792633372]
LLM(Large Language Models)のトレーニングに使用されるデータソースについて検討する。
著作権のあるテキストの一部をLSMに入力し、それを完了するように促し、生成したコンテンツとオリジナルの著作権のある資料の重複を分析します。
これらの部分的な入力に基づいて著作権素材と重なり合うコンテンツをLLMが生成できることが本研究で実証された。
論文 参考訳(メタデータ) (2024-09-20T18:16:05Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。