論文の概要: Locket: Robust Feature-Locking Technique for Language Models
- arxiv url: http://arxiv.org/abs/2510.12117v1
- Date: Tue, 14 Oct 2025 03:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.176987
- Title: Locket: Robust Feature-Locking Technique for Language Models
- Title(参考訳): Locket: 言語モデルのためのロバストな機能ロック技術
- Authors: Lipeng He, Vasisht Duddu, N. Asokan,
- Abstract要約: ペイ・トゥ・アンロック・スキームを実現するための最初の堅牢でスケーラブルなFLoTEである Locket を紹介します。
Locketは有効(ロックされた機能に対する100ドル%の拒絶)、ユーティリティ保存(アンロックされた機能におけるユーティリティの低下)、ロバスト(5ドル%の攻撃成功率)、複数の機能やクライアントにスケールする。
- 参考スコア(独自算出の注目度): 11.207682710536927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chatbot providers (e.g., OpenAI) rely on tiered subscription schemes to generate revenue, offering basic models for free users, and advanced models for paying subscribers. However, a finer-grained pay-to-unlock scheme for premium features (e.g., math, coding) is thought to be more economically viable for the providers. Such a scheme requires a feature-locking technique (FLoTE) which is (i) effective in refusing locked features, (ii) utility-preserving for unlocked features, (iii) robust against evasion or unauthorized credential sharing, and (iv) scalable to multiple features and users. However, existing FLoTEs (e.g., password-locked models) are not robust or scalable. We present Locket, the first robust and scalable FLoTE to enable pay-to-unlock schemes. Locket uses a novel merging approach to attach adapters to an LLM for refusing unauthorized features. Our comprehensive evaluation shows that Locket is effective ($100$% refusal on locked features), utility-preserving ($\leq 7$% utility degradation in unlocked features), robust ($\leq 5$% attack success rate), and scales to multiple features and clients.
- Abstract(参考訳): チャットボットプロバイダ(例:OpenAI)は、収益を生み出すためにタイアップされたサブスクリプションスキームに依存しており、無料ユーザーのための基本モデル、有料加入者のための高度なモデルを提供している。
しかし、プレミアム機能(例えば、数学、コーディング)のためのよりきめ細かいペイ・トゥ・アンロック方式は、提供者にとってより経済的に有効であると考えられている。
このようなスキームは機能ロック技術(FLoTE)を必要とする。
(i)係留された特徴の拒絶に有効である。
(ii)アンロック機能のためのユーティリティ保存
三 回避又は無許可の信用共有に頑健であること、
(4) 複数の機能やユーザに対してスケーラブルです。
しかし、既存のFLoTE(例えばパスワードでロックされたモデル)は、堅牢でスケーラブルではない。
ペイ・トゥ・アンロック・スキームを実現するための最初の堅牢でスケーラブルなFLoTEである Locket を紹介します。
Locketは、新しいマージアプローチを使用して、LLMにアダプタをアタッチして、許可されていない機能を拒否した。
包括的な評価によると、 Locketは有効(100ドル)、ユーティリティ保存(7ドル)、堅牢(5ドル)、複数の機能やクライアントにスケールできる。
関連論文リスト
- Collusion-Resistant Quantum Secure Key Leasing Beyond Decryption [4.375194832711421]
MLTT(Multi-level traitor Trace)と呼ばれる量子セキュアコラシオン耐性トレーシング手法を提案する。
また,プリミティブXのMLTTスキームを,プリミティブXのコラシオン耐性SKLスキームに変換するコンパイラを提案する。
論文 参考訳(メタデータ) (2025-10-06T12:31:39Z) - TLGLock: A New Approach in Logic Locking Using Key-Driven Charge Recycling in Threshold Logic Gates [0.0]
論理ロックのための新しい設計パラダイムであるTLGLockを提案する。
キーをゲートの重み付きロジックに埋め込むことで、TLGLockは従来のロック技術に代わる、ステートレスでコンパクトな代替手段を提供する。
その結果,TLGLockは最大30%の領域,50%の遅延,20%の省電力を実現していることがわかった。
論文 参考訳(メタデータ) (2025-08-25T08:57:36Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Identity Lock: Locking API Fine-tuned LLMs With Identity-based Wake Words [23.466410814073825]
本稿では、特定のIDベースのウェイクワードによってアクティベートされるまで、モデルのコア機能を制限する、IDロックと呼ばれる新しいメカニズムを提案する。
我々は、さまざまなドメインにまたがるさまざまなデータセットにわたって、IdentityLockの有効性を検証するための広範な実験を行っている。
論文 参考訳(メタデータ) (2025-03-10T08:59:07Z) - SubLock: Sub-Circuit Replacement based Input Dependent Key-based Logic Locking for Robust IP Protection [1.804933160047171]
既存のロジックロック技術はSATベースの攻撃に対して脆弱である。
いくつかのSAT耐性論理ロック法が報告されている。
本稿では,新しい入力依存鍵ベースの論理ロック(IDKLL)を提案する。
論文 参考訳(メタデータ) (2024-06-27T11:17:06Z) - ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - FLock: Defending Malicious Behaviors in Federated Learning with
Blockchain [3.0111384920731545]
Federated Learning(FL)は、複数のデータ所有者(クライアント)が協力して機械学習モデルをトレーニングできるようにする、有望な方法だ。
ブロックチェーン上に構築されたセキュアで信頼性の高い分散型FLシステムであるFLockを実現するために,分散台帳技術(DLT)を利用することを提案する。
論文 参考訳(メタデータ) (2022-11-05T06:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。