論文の概要: FNF: Functional Network Fingerprint for Large Language Models
- arxiv url: http://arxiv.org/abs/2601.22692v1
- Date: Fri, 30 Jan 2026 08:12:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.312261
- Title: FNF: Functional Network Fingerprint for Large Language Models
- Title(参考訳): FNF:大規模言語モデルのための関数型ネットワークフィンガープリント
- Authors: Yiheng Liu, Junhao Ning, Sichen Xia, Haiyang Sun, Yang Yang, Hanyang Chi, Xiaohui Gao, Ning Qiang, Bao Ge, Junwei Han, Xintao Hu,
- Abstract要約: FNF(Functional Network Fingerprint、FNF)は、被疑者モデルが被害者モデルから導出されているかどうかを検出する訓練のない、サンプル効率のよい手法である。
我々は、スケールやアーキテクチャの違いがあっても、共通の起源を持つモデルが神経活動の極めて一貫したパターンを示すことを示した。
従来の手法とは異なり,本手法では検証に少数のサンプルが必要であり,モデルの有用性を保ち,一般的なモデル修正に対して頑健である。
- 参考スコア(独自算出の注目度): 43.154221581110875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of large language models (LLMs) is costly and has significant commercial value. Consequently, preventing unauthorized appropriation of open-source LLMs and protecting developers' intellectual property rights have become critical challenges. In this work, we propose the Functional Network Fingerprint (FNF), a training-free, sample-efficient method for detecting whether a suspect LLM is derived from a victim model, based on the consistency between their functional network activity. We demonstrate that models that share a common origin, even with differences in scale or architecture, exhibit highly consistent patterns of neuronal activity within their functional networks across diverse input samples. In contrast, models trained independently on distinct data or with different objectives fail to preserve such activity alignment. Unlike conventional approaches, our method requires only a few samples for verification, preserves model utility, and remains robust to common model modifications (such as fine-tuning, pruning, and parameter permutation), as well as to comparisons across diverse architectures and dimensionalities. FNF thus provides model owners and third parties with a simple, non-invasive, and effective tool for protecting LLM intellectual property. The code is available at https://github.com/WhatAboutMyStar/LLM_ACTIVATION.
- Abstract(参考訳): 大規模言語モデル(LLM)の開発は費用がかかり、商業的価値も高い。
その結果,オープンソース LLM の未承認評価の防止と,開発者の知的財産権保護が重要な課題となっている。
本研究では,FNF(Functional Network Fingerprint)を提案し,その機能的ネットワーク活動の整合性に基づいて,被疑者のLLMが被害者モデルから導出されているかどうかを検出する。
我々は、スケールやアーキテクチャの違いがあっても共通の起源を持つモデルが、様々な入力サンプルにまたがる機能ネットワーク内での神経活動の高度に一貫したパターンを示すことを示した。
対照的に、異なるデータで独立して訓練されたモデルや、異なる目的を持つモデルは、そのようなアクティビティアライメントを保持することができません。
従来の手法とは違って,本手法では検証やモデルユーティリティの保存,モデル修正(微調整,プルーニング,パラメータ置換など),多種多様なアーキテクチャや次元の比較などに頑健である。
したがって、FNFはモデル所有者と第三者に、LLM知的財産権を保護するための単純で非侵襲的で効果的なツールを提供する。
コードはhttps://github.com/WhatAboutMyStar/LLM_ACTIVATIONで公開されている。
関連論文リスト
- Ghost in the Transformer: Tracing LLM Lineage with SVD-Fingerprint [40.05267673405802]
大規模言語モデル(LLM)は急速に進歩し、様々な分野に広く採用されている。
多くの開発者は、既存のオープンソースモデルを微調整するか修正するかを選択する。
公的なモデルから明らかに派生したものの、オリジナルのトレーニングを誤って主張する者もいる。
これにより知的財産権保護への懸念が高まっている。
論文 参考訳(メタデータ) (2025-11-09T13:57:59Z) - Large Language Model Sourcing: A Survey [84.63438376832471]
大規模言語モデル(LLM)は人工知能に革命をもたらし、目的的タスクのサポートから主観的な意思決定の強化へと移行した。
LLMのブラックボックスの性質と生成したコンテンツの人間的品質のため、幻覚、偏見、不公平さ、著作権侵害などの問題が重要になる。
本研究は,4つの相互関連次元を中心に整理されたLCMによるコンテンツの出所追跡について,系統的研究を行った。
論文 参考訳(メタデータ) (2025-10-11T10:52:30Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Identify Backdoored Model in Federated Learning via Individual Unlearning [7.200910949076064]
裏口攻撃は、フェデレートラーニング(FL)の堅牢性に重大な脅威をもたらす
FLにおける悪意のあるモデルを特定するために,ローカルモデル上で個別の未学習を利用する手法であるMASAを提案する。
私たちの知る限りでは、FLの悪意あるモデルを特定するために機械学習を活用するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-11-01T21:19:47Z) - REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - A Fingerprint for Large Language Models [10.63985246068255]
大規模言語モデル(LLM)のための新しいブラックボックスフィンガープリント手法を提案する。
実験結果から,提案手法はPEFT攻撃に対するオーナシップ検証とロバスト性において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-07-01T12:25:42Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。