論文の概要: Re-Key-Free, Risky-Free: Adaptable Model Usage Control
- arxiv url: http://arxiv.org/abs/2511.18772v1
- Date: Mon, 24 Nov 2025 05:13:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.025116
- Title: Re-Key-Free, Risky-Free: Adaptable Model Usage Control
- Title(参考訳): Re-Key-free, Risky-free: Adaptable Model Usage Control
- Authors: Zihan Wang, Zhongkui Ma, Xinguo Feng, Chuan Yan, Dongge Liu, Ruoxi Sun, Derui Wang, Minhui Xue, Guangdong Bai,
- Abstract要約: そこで我々は,ADALOCを提案し,鍵ベースのモデル利用制御をモデル進化の適応性で実現する。
ADALOCは、堅牢な保護を維持しながら、大幅な更新の下で高い精度を達成する。
このことは、ADALOCが現実のシナリオの進化において適応的で保護されたデプロイメントのための実用的なソリューションを提供できることを示している。
- 参考スコア(独自算出の注目度): 28.588037275955926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become valuable intellectual property of model owners, due to the substantial resources required for their development. To protect these assets in the deployed environment, recent research has proposed model usage control mechanisms to ensure models cannot be used without proper authorization. These methods typically lock the utility of the model by embedding an access key into its parameters. However, they often assume static deployment, and largely fail to withstand continual post-deployment model updates, such as fine-tuning or task-specific adaptation. In this paper, we propose ADALOC, to endow key-based model usage control with adaptability during model evolution. It strategically selects a subset of weights as an intrinsic access key, which enables all model updates to be confined to this key throughout the evolution lifecycle. ADALOC enables using the access key to restore the keyed model to the latest authorized states without redistributing the entire network (i.e., adaptation), and frees the model owner from full re-keying after each model update (i.e., lock preservation). We establish a formal foundation to underpin ADALOC, providing crucial bounds such as the errors introduced by updates restricted to the access key. Experiments on standard benchmarks, such as CIFAR-100, Caltech-256, and Flowers-102, and modern architectures, including ResNet, DenseNet, and ConvNeXt, demonstrate that ADALOC achieves high accuracy under significant updates while retaining robust protections. Specifically, authorized usages consistently achieve strong task-specific performance, while unauthorized usage accuracy drops to near-random guessing levels (e.g., 1.01% on CIFAR-100), compared to up to 87.01% without ADALOC. This shows that ADALOC can offer a practical solution for adaptive and protected DNN deployment in evolving real-world scenarios.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、モデル所有者にとって貴重な知的財産権となっている。
デプロイ環境におけるこれらの資産を保護するため、最近の研究では、適切な認可なしにモデルが使用できないようにするためのモデル利用制御機構が提案されている。
これらのメソッドは通常、アクセスキーをパラメータに埋め込むことでモデルのユーティリティをロックする。
しかし、それらはしばしば静的なデプロイメントを前提としており、細調整やタスク固有の適応など、継続的デプロイ後のモデル更新にほとんど耐えられません。
本稿では,ADALOCを提案し,鍵を用いたモデル利用制御とモデル進化の適応性について述べる。
本質的なアクセスキーとして重みのサブセットを戦略的に選択することで、進化ライフサイクルを通じてすべてのモデル更新をこのキーに限定することができる。
ADALOCは、アクセスキーを使用して、ネットワーク全体(すなわち適応)を再配布することなく、最新の認証状態にキー付きモデルを復元し、各モデル更新(すなわちロック保存)後にモデル所有者を完全再キーから解放する。
我々はADALOCの基盤となる公式な基盤を確立し、アクセスキーに制限された更新によって導入されたエラーのような重要な境界を提供する。
CIFAR-100、Caltech-256、Flowers-102などの標準ベンチマークや、ResNet、DenseNet、ConvNeXtといったモダンアーキテクチャの実験では、ADALOCは堅牢な保護を維持しながら、大幅な更新の下で高い精度を達成することを示した。
特に、認可された使用法は、強いタスク固有のパフォーマンスを一貫して達成する一方、許可されていない使用法精度は、ADALOCなしで87.01%まで、ほぼランダムな推測レベル(例えば、CIFAR-100では1.01%)に低下する。
このことは、ADALOCが現実のシナリオの進化において適応的で保護されたDNNデプロイメントに実用的なソリューションを提供できることを示している。
関連論文リスト
- DELMAN: Dynamic Defense Against Large Language Model Jailbreaking with Model Editing [62.43110639295449]
大きな言語モデル(LLM)は意思決定に広く適用されているが、そのデプロイはJailbreak攻撃によって脅かされている。
Delmanは、jailbreak攻撃に対する厳密でダイナミックな保護のために、直接モデル編集を活用する新しいアプローチである。
Delman氏は、モデルの有用性を維持しながら有害な振る舞いを中和するために、関連するパラメータの最小セットを直接更新する。
論文 参考訳(メタデータ) (2025-02-17T10:39:21Z) - A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing [0.26107298043931193]
本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
論文 参考訳(メタデータ) (2024-11-06T11:37:30Z) - A Retention-Centric Framework for Continual Learning with Guaranteed Model Developmental Safety [75.8161094916476]
現実世界のアプリケーションでは、学習可能なシステムは、しばしば課題や新しいタスクに対処するために反復的なモデル開発を行う。
既存の能力の新規または改善は、必然的に旧モデルの優れた能力を失う可能性がある。
本稿では,データ依存制約を伴う保持中心のフレームワークを提案し,既存の画像分類能力の獲得や改善を目的とした事前学習型CLIPモデルを継続的に開発する方法について検討する。
論文 参考訳(メタデータ) (2024-10-04T22:34:58Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - VeriCompress: A Tool to Streamline the Synthesis of Verified Robust
Compressed Neural Networks from Scratch [10.061078548888567]
AIの広範な統合により、安全クリティカルなシナリオのために、エッジや同様のリミテッドリソースプラットフォームにニューラルネットワーク(NN)がデプロイされるようになる。
本研究では,頑健性を保証する圧縮モデルの検索とトレーニングを自動化するツールであるVeriCompressを紹介する。
この方法は、最先端のアプローチよりも2~3倍高速で、それぞれ15.1ポイントと9.8ポイントの平均精度とロバスト性ゲインで関連するベースラインアプローチを上回ります。
論文 参考訳(メタデータ) (2022-11-17T23:42:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。