論文の概要: FPEdit: Robust LLM Fingerprinting through Localized Knowledge Editing
- arxiv url: http://arxiv.org/abs/2508.02092v1
- Date: Mon, 04 Aug 2025 06:00:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.196891
- Title: FPEdit: Robust LLM Fingerprinting through Localized Knowledge Editing
- Title(参考訳): FPEdit: 局所的な知識編集によるロバストLLMフィンガープリント
- Authors: Shida Wang, Chaohu Liu, Yubo Wang, Linli Xu,
- Abstract要約: FPEditは、モデル重みのスパース部分を変更することによって、意味的に一貫性のある自然言語の指紋を注入する、新しい知識編集フレームワークである。
実験によると、FPEditは95ドルから100%の指紋保持を実現している。
FPEditは、32GB以下のGPUメモリを使用して、10個の指紋ペアを10分以内でLLaMA2-7Bに埋め込むことができる。
- 参考スコア(独自算出の注目度): 9.351260848685229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models represent significant investments in computation, data, and engineering expertise, making them extraordinarily valuable intellectual assets. Nevertheless, these AI assets remain vulnerable to unauthorized redistribution and commercial exploitation through fine-tuning or black-box deployment. Current fingerprinting approaches face a fundamental trade-off: intrinsic methods require full parameter access, while backdoor-based techniques employ statistically anomalous triggers easily detected and filtered by adversaries. To address these limitations, we introduce FPEdit, a novel knowledge-editing framework that injects semantically coherent natural language fingerprints by modifying a sparse subset of model weights. This ensures stealthy and precise ownership encoding without degrading the core functionality. Extensive experiments show that FPEdit achieves $95$-$100\%$ fingerprint retention under both full-parameter fine-tuning and parameter-efficient adaptation, while preserving performance on 24 downstream benchmarks. Moreover, FPEdit remains robust under quantization, pruning, and stochastic decoding, and can embed 10 fingerprint pairs into LLaMA2-7B in under 10 minutes using less than 32 GB of GPU memory, a $70\%$ reduction in resource requirements compared to existing techniques. These advances establish FPEdit as the first fingerprinting approach to simultaneously achieve robustness against adaptation, resistance to detection, and preservation of model utility, providing a minimally invasive solution for reliable provenance verification of large language models in adversarial deployment scenarios.
- Abstract(参考訳): 大規模言語モデルは計算、データ、エンジニアリングの専門知識に多大な投資をしており、非常に貴重な知的資産となっている。
それでも、これらのAI資産は、微調整やブラックボックスの展開を通じて、不正な再配布と商業的搾取に弱いままである。
内在的な手法は完全なパラメータアクセスを必要とし、バックドアベースの手法では統計的に異常なトリガーが容易に検出され、敵によってフィルタリングされる。
これらの制約に対処するために、モデル重みのスパース部分を変更することで、意味的に一貫性のある自然言語指紋を注入する新しい知識編集フレームワークであるFPEditを導入する。
これにより、コア機能を劣化させることなく、ステルス性と正確なオーナシップのエンコーディングが保証される。
大規模な実験によると、FPEditは、フルパラメータの微調整とパラメータ効率の両面で指紋保持を9,5$-100\%で達成し、24のダウンストリームベンチマークのパフォーマンスを保っている。
さらに、FPEditは量子化、プルーニング、確率的復号化の下で堅牢であり、32GB未満のGPUメモリを使用して10個の指紋ペアをLLaMA2-7Bに10分以内で埋め込むことができる。
これらの進歩は、FPEditを、適応、検出に対する抵抗、モデルユーティリティの保存に対する堅牢性を同時に達成する最初のフィンガープリント手法として確立し、敵のデプロイメントシナリオにおける大規模言語モデルの信頼性検証のための最小限の侵襲的なソリューションを提供する。
関連論文リスト
- Privacy-Preserving Inference for Quantized BERT Models [13.36359444231145]
量子化は浮動小数点演算を低精度整数計算に変換することで有望な解を提供する。
本研究では, 層単位での微細な量子化手法を提案し, 1ビットの重み付き全連結層をセキュアな設定で支持する。
論文 参考訳(メタデータ) (2025-08-03T07:52:08Z) - PRISM: Distributed Inference for Foundation Models at Edge [73.54372283220444]
PRISMは、エッジデバイス上での分散トランスフォーマー推論のための通信効率と計算アウェア戦略である。
ViT,BERT,GPT-2のPRISMを多種多様なデータセットで評価した。
論文 参考訳(メタデータ) (2025-07-16T11:25:03Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - AI-Based Vulnerability Analysis of NFT Smart Contracts [6.378351117969227]
本研究では,NFTスマートコントラクトの脆弱性を検出するAI駆動型アプローチを提案する。
我々は16,527のパブリックなスマートコントラクトコードを収集し、これらを5つの脆弱性カテゴリに分類した: Risky Mutable Proxy, ERC-721 Reentrancy, Unlimited Minting, Missing Requirements, Public Burn。
ランダムデータ/機能サンプリングとマルチツリー統合によるロバスト性向上のために,ランダムフォレストモデルを実装した。
論文 参考訳(メタデータ) (2025-04-18T08:55:31Z) - Enhancing Smart Contract Vulnerability Detection in DApps Leveraging Fine-Tuned LLM [0.7018579932647147]
分散アプリケーション(DApps)は、スマートコントラクトの脆弱性のため、重大なセキュリティリスクに直面します。
本稿では,Large Language Models (LLM) を利用したスマートコントラクト脆弱性検出手法を提案する。
論文 参考訳(メタデータ) (2025-04-07T12:32:14Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - ImF: Implicit Fingerprint for Large Language Models [0.0]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - TOPLOC: A Locality Sensitive Hashing Scheme for Trustless Verifiable Inference [7.103455333148043]
大規模言語モデル(LLM)は非常に有能であることが証明されているが、現在フロンティアモデルへのアクセスは推論プロバイダに依存している。
本研究では,この問題に対処する検証可能な新しい手法であるTOPLOCを提案する。
論文 参考訳(メタデータ) (2025-01-27T12:46:45Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - SLIP: Securing LLMs IP Using Weights Decomposition [0.0]
大規模言語モデル(LLM)は、最近、アカデミックと産業の両方で広く採用されている。
これらのモデルが成長するにつれて、彼らは価値ある知的財産権(IP)となり、所有者による巨額の投資を反映している。
エッジ上のモデルのIPを保護する現在の方法は、実用性、精度の低下、要求に対する適合性の制限がある。
我々は,エッジデデプロイされたモデルを盗難から保護するために,SLIPという新しいハイブリッド推論アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:37:55Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Do Compressed LLMs Forget Knowledge? An Experimental Study with
Practical Implications [63.29358103217275]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて、パフォーマンスを低下させることが多い。
損傷の性質に関する2つの予想を提案する。1つは、圧縮後に忘れられた(または消された)知識である。
Inference-time Dynamic Prompting (IDP)と呼ばれる変種を導入し、推論オーバーヘッドを発生させることなく、迅速な多様性を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-10-02T03:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。