論文の概要: Attesting Model Lineage by Consisted Knowledge Evolution with Fine-Tuning Trajectory
- arxiv url: http://arxiv.org/abs/2601.11683v1
- Date: Fri, 16 Jan 2026 08:56:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.280036
- Title: Attesting Model Lineage by Consisted Knowledge Evolution with Fine-Tuning Trajectory
- Title(参考訳): 微調整軌道を用いた知識進化によるモデル線形化の検証
- Authors: Zhuoyi Shang, Jiasen Li, Pengzhen Chen, Yanwei Liu, Xiaoyan Gu, Weiping Wang,
- Abstract要約: ディープラーニングにおける微調整技術は、モデル間での血統関係を生じさせる。
この系統は、不正なモデル再配布やモデル証明の誤った主張など、セキュリティ上の問題に対処する上で有望な視点を提供する。
モデル系統検出への既存のアプローチは、主に静的なアーキテクチャの類似性に依存している。
- 参考スコア(独自算出の注目度): 11.799433126257375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The fine-tuning technique in deep learning gives rise to an emerging lineage relationship among models. This lineage provides a promising perspective for addressing security concerns such as unauthorized model redistribution and false claim of model provenance, which are particularly pressing in \textcolor{blue}{open-weight model} libraries where robust lineage verification mechanisms are often lacking. Existing approaches to model lineage detection primarily rely on static architectural similarities, which are insufficient to capture the dynamic evolution of knowledge that underlies true lineage relationships. Drawing inspiration from the genetic mechanism of human evolution, we tackle the problem of model lineage attestation by verifying the joint trajectory of knowledge evolution and parameter modification. To this end, we propose a novel model lineage attestation framework. In our framework, model editing is first leveraged to quantify parameter-level changes introduced by fine-tuning. Subsequently, we introduce a novel knowledge vectorization mechanism that refines the evolved knowledge within the edited models into compact representations by the assistance of probe samples. The probing strategies are adapted to different types of model families. These embeddings serve as the foundation for verifying the arithmetic consistency of knowledge relationships across models, thereby enabling robust attestation of model lineage. Extensive experimental evaluations demonstrate the effectiveness and resilience of our approach in a variety of adversarial scenarios in the real world. Our method consistently achieves reliable lineage verification across a broad spectrum of model types, including classifiers, diffusion models, and large language models.
- Abstract(参考訳): ディープラーニングにおける微調整技術は、モデル間での血統関係を生じさせる。
この系統は、無許可のモデル再配布やモデル証明の偽主張といったセキュリティ上の問題に対処するための有望な視点を提供する。
モデル系統検出への既存のアプローチは主に静的なアーキテクチャ的類似性に依存しており、真の系統関係の根底にある知識の動的進化を捉えるには不十分である。
人間の進化の遺伝的メカニズムからインスピレーションを得て,知識進化の連成軌道とパラメータ修正を検証し,モデル系統検定の問題に取り組む。
そこで本研究では,新しいモデル系統証明フレームワークを提案する。
我々のフレームワークでは、モデル編集が最初に活用され、微調整によって導入されたパラメータレベルの変化を定量化する。
その後、我々は、編集されたモデル内の進化した知識を、プローブサンプルの助けを借りてコンパクトな表現へと洗練する新しい知識ベクトル化機構を導入する。
探索戦略は、異なるタイプのモデルファミリーに適応する。
これらの埋め込みは、モデル間の知識関係の算術的一貫性を検証する基盤として機能し、モデル系統の堅牢な証明を可能にする。
実世界の様々な敵対的シナリオにおいて,我々のアプローチの有効性とレジリエンスが実証された。
提案手法は,分類器,拡散モデル,大規模言語モデルなど,モデルタイプの幅広い範囲にわたる信頼性の高い系統検証を実現する。
関連論文リスト
- Delphos: A reinforcement learning framework for assisting discrete choice model specification [0.0]
我々は、個別選択モデル仕様プロセスを支援するための深層強化学習フレームワークであるDelphosを紹介する。
この設定では、エージェントは、モデリングアクションのシーケンスを選択して、良好なパフォーマンスのモデル候補を特定することを学習する。
我々は,モデル空間と報酬関数のサイズを変化させ,シミュレーションと経験的データセットの両方でDelphosを評価した。
論文 参考訳(メタデータ) (2025-06-06T15:40:16Z) - MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities [72.05167902805405]
異種モデルのパラメータ空間のギャップを埋めることを学ぶMergeNetを提案する。
MergeNetの中核となるメカニズムはパラメータアダプタにあり、ソースモデルの低ランクパラメータをクエリすることで動作する。
MergeNetは両方のモデルと共に学習され、我々のフレームワークは、現在のステージに関する知識を動的に転送し、適応することができます。
論文 参考訳(メタデータ) (2024-04-20T08:34:39Z) - Improving Adversarial Transferability via Model Alignment [25.43899674478279]
本稿では,トランスファー可能な逆方向摂動を生成するためのモデルアライメント手法を提案する。
さまざまなモデルアーキテクチャを用いたImageNetデータセットの実験では、アライメントされたソースモデルから発生する摂動が、転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-30T12:15:49Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。