論文の概要: SeedPrints: Fingerprints Can Even Tell Which Seed Your Large Language Model Was Trained From
- arxiv url: http://arxiv.org/abs/2509.26404v1
- Date: Tue, 30 Sep 2025 15:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.598937
- Title: SeedPrints: Fingerprints Can Even Tell Which Seed Your Large Language Model Was Trained From
- Title(参考訳): SeedPrints:フィンガープリントは、大きめの言語モデルを訓練したことを教えてくれる
- Authors: Yao Tong, Haonan Wang, Siquan Li, Kenji Kawaguchi, Tianyang Hu,
- Abstract要約: 我々は,LDMフィンガープリントのより強く,より本質的な概念であるSeedPrintsを提案する。
トレーニングされていないモデルでは,パラメータのみに依存した再現可能なトークン選択バイアスが示される。
LLaMAスタイルとQwenスタイルのモデルの実験では、SeedPrintsはシードレベルの識別性を実現し、バイオメトリック指紋に似た生来からライフサイクルの識別認証を提供する。
- 参考スコア(独自算出の注目度): 65.75182441010327
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fingerprinting Large Language Models (LLMs) is essential for provenance verification and model attribution. Existing methods typically extract post-hoc signatures based on training dynamics, data exposure, or hyperparameters -- properties that only emerge after training begins. In contrast, we propose a stronger and more intrinsic notion of LLM fingerprinting: SeedPrints, a method that leverages random initialization biases as persistent, seed-dependent identifiers present even before training. We show that untrained models exhibit reproducible token selection biases conditioned solely on their parameters at initialization. These biases are stable and measurable throughout training, enabling our statistical detection method to recover a model's lineage with high confidence. Unlike prior techniques, unreliable before convergence and vulnerable to distribution shifts, SeedPrints remains effective across all training stages and robust under domain shifts or parameter modifications. Experiments on LLaMA-style and Qwen-style models show that SeedPrints achieves seed-level distinguishability and can provide birth-to-lifecycle identity verification akin to a biometric fingerprint. Evaluations on large-scale pretrained models and fingerprinting benchmarks further confirm its effectiveness under practical deployment scenarios. These results suggest that initialization itself imprints a unique and persistent identity on neural language models, forming a true ''Galtonian'' fingerprint.
- Abstract(参考訳): フィンガープリンティング 大規模言語モデル(LLM)は、証明の検証とモデルの帰属に不可欠である。
既存のメソッドは通常、トレーニングの開始後にのみ現れる特性であるトレーニングダイナミクス、データ露出、ハイパーパラメータに基づいて、ポストホックシグネチャを抽出する。
対照的に、私たちはLDMフィンガープリントのより強く、より本質的な概念を提唱する: SeedPrintsは、ランダム初期化バイアスをトレーニング前にも持続的で、種に依存しない識別子として活用する手法である。
未学習モデルでは初期化時にパラメータにのみ条件付きで再現可能なトークン選択バイアスを示す。
これらのバイアスはトレーニングを通じて安定して測定可能であり、統計的検出手法によりモデルの系統を高い信頼性で復元することができる。
収束前の信頼性が低く、分散シフトに弱い従来のテクニックとは異なり、SeedPrintsはすべてのトレーニングステージで有効であり、ドメインシフトやパラメータ修正の下で堅牢である。
LLaMAスタイルとQwenスタイルのモデルの実験では、SeedPrintsはシードレベルの識別性を実現し、バイオメトリック指紋に似た生来からライフサイクルの識別認証を提供する。
大規模な事前訓練モデルとフィンガープリントベンチマークの評価により、実際のデプロイシナリオ下での有効性がさらに確認される。
これらの結果は、初期化自体がニューラルネットワークモデルにユニークで永続的なアイデンティティを印字し、真の'ガルトン'指紋を形成することを示唆している。
関連論文リスト
- A Behavioral Fingerprint for Large Language Models: Provenance Tracking via Refusal Vectors [43.11304710234668]
安全アライメントによって引き起こされる行動パターンを活用する新しいフィンガープリントフレームワークを提案する。
76の子孫モデルを対象とした大規模識別タスクにおいて,本手法は正しいモデル群を同定する際の精度を100%向上する。
本稿では,このプライベートフィンガープリントを,公開で検証可能なプライバシー保護アーティファクトに変換するための理論的枠組みを提案する。
論文 参考訳(メタデータ) (2026-02-10T05:57:35Z) - Natural Fingerprints of Large Language Models [19.87526607747389]
大規模な言語モデルがまったく同じデータセットでトレーニングされている場合でも、その出力は区別可能であることを示す。
我々は、これらの意図しない特徴を自然の指紋として言及する。
これらの結果は、トレーニングダイナミクスがデータやアーキテクチャに依存しないモデル動作を体系的に形成できることを示唆している。
論文 参考訳(メタデータ) (2025-04-21T05:48:52Z) - UTF:Undertrained Tokens as Fingerprints A Novel Approach to LLM Identification [9.780530666330007]
大型言語モデル(LLM)のフィンガープリントは、モデルのオーナシップの検証、信頼性の確保、誤用防止に不可欠である。
本稿では,未学習トークンを利用したLDMのフィンガープリント手法を提案する。
提案手法は,モデルの性能に最小限のオーバーヘッドと影響があり,対象モデルのオーナシップ識別にホワイトボックスアクセスを必要としない。
論文 参考訳(メタデータ) (2024-10-16T07:36:57Z) - Adaptive Pre-training Data Detection for Large Language Models via Surprising Tokens [1.2549198550400134]
大きな言語モデル(LLM)は広く使われているが、プライバシー、セキュリティ、著作権については不透明なトレーニングデータのために懸念されている。
この問題に対する現在の解決策は、メンバーシップ推論攻撃(MIA)のような機械学習プライバシで探索されたテクニックを活用する。
本稿では、この信頼性を軽減し、同定を効果的に増幅する適応型事前学習データ検出法を提案する。
論文 参考訳(メタデータ) (2024-07-30T23:43:59Z) - HuRef: HUman-REadable Fingerprint for Large Language Models [44.9820558213721]
HuRefは、大きな言語モデルのための人間可読指紋である。
トレーニングやモデルパラメータを公開することなく、ベースモデルを独自に識別する。
論文 参考訳(メタデータ) (2023-12-08T05:01:47Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Masked Autoencoders As The Unified Learners For Pre-Trained Sentence
Representation [77.47617360812023]
我々は、最近提案されたMAEスタイルの事前学習戦略であるRetroMAEを拡張し、幅広い文表現タスクをサポートする。
最初のステージでは、ベースモデルが学習されるWikipedia、BookCorpusなど、一般的なコーパス上でRetroMAEを実行する。
第2段階はドメイン固有のデータ、例えばMS MARCOやNLIで行われ、ベースモデルはRetroMAEとコントラスト学習に基づいて継続的に訓練される。
論文 参考訳(メタデータ) (2022-07-30T14:34:55Z) - On the Transferability of Pre-trained Language Models: A Study from
Artificial Datasets [74.11825654535895]
大規模未ラベルテキストデータ上での事前学習言語モデル(LM)により、ダウンストリームのパフォーマンスが極めて容易になる。
我々は,事前学習データに含まれる特定の特徴について,セマンティクス以外では,下流タスクのスクラッチからトレーニングしたデータよりも,事前学習したLMを優れているか検討した。
論文 参考訳(メタデータ) (2021-09-08T10:39:57Z) - Is BERT a Cross-Disciplinary Knowledge Learner? A Surprising Finding of
Pre-trained Models' Transferability [74.11825654535895]
BERTなどのテキストデータに予め訓練されたモデルのパワーを、一般的なトークンシーケンス分類アプリケーションに転送できるかどうかを検討します。
テキスト以外のデータでも、テキストに事前学習されたモデルはランダムなモデルよりも高速に収束する。
論文 参考訳(メタデータ) (2021-03-12T09:19:14Z) - EaZy Learning: An Adaptive Variant of Ensemble Learning for Fingerprint
Liveness Detection [14.99677459192122]
指紋の生存度検出機構は、データセット内環境では良好に機能するが、クロスセンサーおよびクロスデータセット設定下では不幸にも失敗する。
指紋スプーフ検出器の一般化能力、堅牢性、相互運用性を高めるために、学習モデルはデータに適応する必要がある。
本稿では,熱心学習と遅延学習の中間に適応できる汎用モデルであるEaZy学習を提案する。
論文 参考訳(メタデータ) (2021-03-03T06:40:19Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。