論文の概要: ISACL: Internal State Analyzer for Copyrighted Training Data Leakage
- arxiv url: http://arxiv.org/abs/2508.17767v1
- Date: Mon, 25 Aug 2025 08:04:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.685081
- Title: ISACL: Internal State Analyzer for Copyrighted Training Data Leakage
- Title(参考訳): ISACL: 著作権付きトレーニングデータ漏洩のための内部状態分析装置
- Authors: Guangwei Zhang, Qisheng Su, Jiateng Liu, Cheng Qian, Yanzhou Pan, Yanjie Fu, Denghui Zhang,
- Abstract要約: LLM(Large Language Models)は、著作権またはプロプライエタリなデータを不注意に公開するリスクを生じさせる。
本研究は, LLMの内部状態をテキスト生成前に検討し, 潜在的な漏洩を検出する, 積極的なアプローチを提案する。
Retrieval-Augmented Generation (RAG)システムと統合されたこのフレームワークは、著作権とライセンス要件の遵守を保証する。
- 参考スコア(独自算出の注目度): 28.435965753598875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have revolutionized Natural Language Processing (NLP) but pose risks of inadvertently exposing copyrighted or proprietary data, especially when such data is used for training but not intended for distribution. Traditional methods address these leaks only after content is generated, which can lead to the exposure of sensitive information. This study introduces a proactive approach: examining LLMs' internal states before text generation to detect potential leaks. By using a curated dataset of copyrighted materials, we trained a neural network classifier to identify risks, allowing for early intervention by stopping the generation process or altering outputs to prevent disclosure. Integrated with a Retrieval-Augmented Generation (RAG) system, this framework ensures adherence to copyright and licensing requirements while enhancing data privacy and ethical standards. Our results show that analyzing internal states effectively mitigates the risk of copyrighted data leakage, offering a scalable solution that fits smoothly into AI workflows, ensuring compliance with copyright regulations while maintaining high-quality text generation. The implementation is available on GitHub.\footnote{https://github.com/changhu73/Internal_states_leakage}
- Abstract(参考訳): 大規模言語モデル (LLM) は自然言語処理 (NLP) に革命をもたらしたが、特にトレーニングに使用されるが配布を意図していない場合、著作権やプロプライエタリなデータを不注意に公開するリスクを生じさせる。
従来の方法では、コンテンツが生成された後にのみ、これらのリークに対処する。
本研究は, LLMの内部状態をテキスト生成前に検討し, 潜在的な漏洩を検出する, 積極的なアプローチを提案する。
著作権素材のキュレートされたデータセットを使用することで、ニューラルネットワーク分類器を訓練してリスクを特定し、生成プロセスの停止や出力の変更による早期介入を可能にし、開示を防止する。
Retrieval-Augmented Generation (RAG)システムと統合されたこのフレームワークは、データプライバシと倫理基準を強化しながら、著作権とライセンス要件の遵守を保証する。
この結果から,内部状態の分析が著作権データ漏洩のリスクを効果的に軽減し,AIワークフローにスムーズに適合するスケーラブルなソリューションを提供し,高品質なテキスト生成を維持しながら著作権規制の遵守を確保することが示唆された。
実装はGitHubで公開されている。
\footnote{https://github.com/changhu73/Internal_states_leakage}
関連論文リスト
- Dataset Protection via Watermarked Canaries in Retrieval-Augmented LLMs [67.0310240737424]
本稿では,テキストデータセットの所有権を保護し,RA-LLMによる不正使用を効果的に検出するための新しいアプローチを提案する。
提案手法では,IPデータセットに特別に設計されたカナリア文書を挿入することにより,元のデータを完全に変更することなく保護する。
検出プロセス中、カナリア文書をクエリし、RA-LLMの応答を分析することにより、不正使用を識別する。
論文 参考訳(メタデータ) (2025-02-15T04:56:45Z) - Investigating the Feasibility of Mitigating Potential Copyright Infringement via Large Language Model Unlearning [0.0]
LLM(Pre-trained Large Language Models)は、優れた能力を示すと同時に、著作権のある資料の学習と生成によるリスクも生んでいる。
本研究では,LLMから複数の時間ステップで著作権付きコンテンツを解放する新しいフレームワークであるSSU(Stable Sequential Unlearning)を提案する。
SSUは時に、未学習の有効性と汎用言語能力の効果的なトレードオフを達成し、既存のベースラインを上回ります。
論文 参考訳(メタデータ) (2024-12-16T20:01:06Z) - Inner-Probe: Discovering Copyright-related Data Generation in LLM Architecture [39.425944445393945]
innerProbeは、著作権付きサブデータセットが生成されたテキストに与える影響を評価するために設計されたフレームワークである。
MHAに基づいてトレーニングされた軽量LSTMベースのネットワークを、教師付き方式で使用する。
Books3のサブデータセットコントリビューション分析のセマンティックモデルトレーニングに比べて効率が3倍向上し、Pileのベースラインよりも15.04%-58.7%高い精度を実現し、非コピーライトデータフィルタリングのAUCは0.104増加している。
論文 参考訳(メタデータ) (2024-10-06T11:41:39Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - Targeted Unlearning with Single Layer Unlearning Gradient [15.374381635334897]
機械学習手法は、訓練されたモデルからセンシティブまたは望ましくないコンテンツを除去することを目的としている。
対象情報を学習するための効率的な手法として,SLUG(Single Layer Unlearning Gradient Computing)を提案する。
論文 参考訳(メタデータ) (2024-07-16T15:52:36Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - SILO Language Models: Isolating Legal Risk In a Nonparametric Datastore [159.21914121143885]
推論中にこのリスクパフォーマンストレードオフを管理する新しい言語モデルであるSILOを提案する。
SILOは(1)オープンライセンスコーパス(OLC)上でパラメトリックLMをトレーニングすることで構築されます。
データストアへのアクセスはドメインのパフォーマンスを大幅に改善し、PileでトレーニングされたLMでパフォーマンスギャップの90%を閉じる。
論文 参考訳(メタデータ) (2023-08-08T17:58:15Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。