論文の概要: Matrix-Driven Instant Review: Confident Detection and Reconstruction of LLM Plagiarism on PC
- arxiv url: http://arxiv.org/abs/2508.06309v1
- Date: Fri, 08 Aug 2025 13:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.24139
- Title: Matrix-Driven Instant Review: Confident Detection and Reconstruction of LLM Plagiarism on PC
- Title(参考訳): マトリックス駆動インスタントレビュー:PC上でのLCMプラジャリズムの信頼性検出と再構築
- Authors: Ruichong Zhang,
- Abstract要約: 大きな言語モデル(LLM)のプラジャアライズは、オリジナルの開発者にとって大きな経済的、評判の害をもたらす可能性がある。
本研究では,大規模言語モデルにおける盗作検出手法であるMDIR(Matrix-Driven Instant Review)を提案する。
MDIRは、重み関係の正確な再構築を実現し、厳密な$p$値の推定を提供し、完全なモデル推論を必要とせず、重量類似性にのみ焦点をあてる。
- 参考スコア(独自算出の注目度): 0.8611782340880084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, concerns about intellectual property (IP) in large language models (LLMs) have grown significantly. Plagiarizing other LLMs (through direct weight copying, upcycling, pruning, or continual pretraining) and claiming authorship without properly attributing to the original license, is a serious misconduct that can lead to significant financial and reputational harm to the original developers. However, existing methods for detecting LLM plagiarism fall short in key areas. They fail to accurately reconstruct weight correspondences, lack the ability to compute statistical significance measures such as $p$-values, and may mistakenly flag models trained on similar data as being related. To address these limitations, we propose Matrix-Driven Instant Review (MDIR), a novel method that leverages matrix analysis and Large Deviation Theory. MDIR achieves accurate reconstruction of weight relationships, provides rigorous $p$-value estimation, and focuses exclusively on weight similarity without requiring full model inference. Experimental results demonstrate that MDIR reliably detects plagiarism even after extensive transformations, such as random permutations and continual pretraining with trillions of tokens. Moreover, all detections can be performed on a single PC within an hour, making MDIR both efficient and accessible.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) における知的財産権 (IP) に関する懸念が増大している。
他のLCMを(直接の複写、アップサイクリング、プルーニング、または連続的な事前訓練を通じて)プラジャイズし、オリジナルのライセンスに適切に貢献することなく著者を主張することは、真の不正行為であり、オリジナルの開発者にとって経済的、評判の悪影響をもたらす可能性がある。
しかし,LLMプラージャリズムの検出法は重要な領域では不十分である。
彼らは正確なウェイト対応の再構築に失敗し、$p$-valuesのような統計的に重要な尺度を計算できないため、類似したデータで訓練されたモデルが関連していると誤ってフラグを立てることもある。
これらの制約に対処するため,行列解析と大規模偏差理論を利用した新しい手法であるMDIRを提案する。
MDIRは、重み関係の正確な再構築を実現し、厳密な$p$値の推定を提供し、完全なモデル推論を必要とせず、重量類似性にのみ焦点をあてる。
実験によりMDIRは、乱数置換や数兆のトークンによる連続事前学習など、広範囲な変換後も、確実に盗作を検出できることが示された。
さらに、すべての検出は1時間以内に1台のPC上で行うことができ、MDIRは効率的かつアクセスしやすい。
関連論文リスト
- Repairing vulnerabilities without invisible hands. A differentiated replication study on LLMs [5.10123605644148]
自動脆弱性修復(AVR: Automated Vulnerability repair)は、プログラム修復の急激な分岐である。
近年の研究では、大きな言語モデル(LLM)が従来の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2025-07-28T16:39:16Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - Unlearning Isn't Deletion: Investigating Reversibility of Machine Unlearning in LLMs [19.525112900768534]
モデルはしばしば忘れられるが、元の動作は最小限の微調整で迅速に復元できる。
そこで本研究では,PCAに基づく類似性とシフト,カーネルアライメント中心,フィッシャー情報を用いた表現レベル評価フレームワークを提案する。
このツールキットを6つの未学習の手法、3つのドメイン(テキスト、コード、数学)、そして2つのオープンソース LLM に適用することにより、可逆性と不可逆性(inversible)な忘れの区別を明らかにする。
論文 参考訳(メタデータ) (2025-05-22T16:02:10Z) - Small Singular Values Matter: A Random Matrix Analysis of Transformer Models [0.0]
重み行列スペクトルの特定の領域はランダム行列理論(RMT)の予測から著しく逸脱していることがわかった。
我々の分析は、大規模言語モデル(LLM)における小さな特異値の重要性をさらに明らかにしている。
これらの小さな値はタスク固有の微調整の前に重要でないように見えるかもしれないが、その後、性能を著しく低下させる。
論文 参考訳(メタデータ) (2024-10-23T11:19:08Z) - Inner-Probe: Discovering Copyright-related Data Generation in LLM Architecture [39.425944445393945]
innerProbeは、著作権付きサブデータセットが生成されたテキストに与える影響を評価するために設計されたフレームワークである。
MHAに基づいてトレーニングされた軽量LSTMベースのネットワークを、教師付き方式で使用する。
Books3のサブデータセットコントリビューション分析のセマンティックモデルトレーニングに比べて効率が3倍向上し、Pileのベースラインよりも15.04%-58.7%高い精度を実現し、非コピーライトデータフィルタリングのAUCは0.104増加している。
論文 参考訳(メタデータ) (2024-10-06T11:41:39Z) - Improving Zero-shot LLM Re-Ranker with Risk Minimization [20.32406191251512]
Retrieval-Augmented Generation (RAG) システムでは、高度なLarge Language Models (LLMs) が、教師なしの方法で有効なQuery Likelihood Models (QLMs) として登場した。
しかし、直接的にQLMを近似させる手法は、推定された分布が実際の文書固有の分布から分岐する可能性があるため、偏りがある。
我々はベイズ決定理論を利用してこの推定バイアスを定量化し緩和する新しいフレームワーク、$mathrmUR3$を導入する。
論文 参考訳(メタデータ) (2024-06-19T08:29:54Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Learning to Rematch Mismatched Pairs for Robust Cross-Modal Retrieval [49.07523607316323]
実世界のシナリオでは、大規模なマルチモーダルデータは、必然的にPMP(Partially Mismatched Pairs)を含むインターネットから収集される。
従来の取り組みでは、PMPの貢献度を下げるためのソフトな対応を推定することで、この問題を軽減する傾向があった。
我々は、ミスマッチペアの再マッチを学習する最適輸送(OT)に基づく一般的なフレームワークであるL2RMを提案する。
論文 参考訳(メタデータ) (2024-03-08T07:09:30Z) - Towards Robust Model-Based Reinforcement Learning Against Adversarial Corruption [60.958746600254884]
本研究は、モデルベース強化学習(RL)における敵対的腐敗の課題に取り組む。
本稿では,MLE に対する不確実性重みとして全変量 (TV) に基づく情報比を利用する,汚損楽観的 MLE (CR-OMLE) アルゴリズムを提案する。
我々は、重み付け手法をオフライン設定にまで拡張し、汚損性悲観的MLE (CR-PMLE) というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-14T07:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。