論文の概要: Locking Machine Learning Models into Hardware
- arxiv url: http://arxiv.org/abs/2405.20990v1
- Date: Fri, 31 May 2024 16:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 13:39:10.553233
- Title: Locking Machine Learning Models into Hardware
- Title(参考訳): 機械学習モデルをハードウェアにロックする
- Authors: Eleanor Clifford, Adhithya Saravanan, Harry Langford, Cheng Zhang, Yiren Zhao, Robert Mullins, Ilia Shumailov, Jamie Hayes,
- Abstract要約: ロック機構は、モデル表現の効率を目標にするか、ハードウェアの特定の特性にモデル操作を結びつけることで実現可能である。
ロックには無視可能な作業とレイテンシのオーバーヘッドが伴い、その結果、未許可のハードウェア上でのモデルのユーザビリティを著しく制限することを示した。
- 参考スコア(独自算出の注目度): 23.302713189376256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Machine Learning models are expensive IP and business competitiveness often depends on keeping this IP confidential. This in turn restricts how these models are deployed -- for example it is unclear how to deploy a model on-device without inevitably leaking the underlying model. At the same time, confidential computing technologies such as Multi-Party Computation or Homomorphic encryption remain impractical for wide adoption. In this paper we take a different approach and investigate feasibility of ML-specific mechanisms that deter unauthorized model use by restricting the model to only be usable on specific hardware, making adoption on unauthorized hardware inconvenient. That way, even if IP is compromised, it cannot be trivially used without specialised hardware or major model adjustment. In a sense, we seek to enable cheap locking of machine learning models into specific hardware. We demonstrate that locking mechanisms are feasible by either targeting efficiency of model representations, such making models incompatible with quantisation, or tie the model's operation on specific characteristics of hardware, such as number of cycles for arithmetic operations. We demonstrate that locking comes with negligible work and latency overheads, while significantly restricting usability of the resultant model on unauthorized hardware.
- Abstract(参考訳): 現代の機械学習モデルは高価なIPであり、ビジネス上の競争力は、しばしばこのIPを秘密にしておくことに依存する。
これにより、これらのモデルがどのようにデプロイされるかが制限される。例えば、基盤となるモデルを必然的にリークすることなく、デバイス上でモデルをデプロイする方法は不明確である。
同時に、マルチパーティ計算やホモモルフィック暗号のような機密計算技術は、広く採用するには実用的ではない。
本稿では,特定のハードウェア上でのみ使用可能なモデルを制限することで,不許可なモデルの使用を抑えるML固有のメカニズムの実現可能性について検討する。
したがって、IPが侵害されたとしても、特別なハードウェアや主要なモデル調整なしでは、自明に使用できない。
ある意味では、機械学習モデルを特定のハードウェアに安価にロックできるようにする。
ロック機構は、量子化に不適合なモデルを作るようなモデル表現の効率を目標とすることで実現可能であるか、あるいは算術演算のサイクル数など、ハードウェアの特定の特性にモデル操作を結びつけることで実現可能であることを実証する。
ロックには無視可能な作業とレイテンシのオーバーヘッドが伴い、その結果、未許可のハードウェア上でのモデルのユーザビリティを著しく制限することを示した。
関連論文リスト
- Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography [30.57370996703948]
有能な機械学習モデルは信頼できるサードパーティの役割を果たすことができると我々は主張する。
このアプローチは、プライバシと計算効率のバランスを達成することを目的としている。
単純な古典的暗号問題でさえ、すでにTCMEで解決できることが示されている。
論文 参考訳(メタデータ) (2025-01-15T17:28:53Z) - Attacks on multimodal models [49.1574468325115]
本研究は、そのようなモデルに対する様々な種類の攻撃を調査し、それらの一般化能力を評価することを目的としている。
本研究の主な対象は、CLIPアーキテクチャとそのイメージエンコーダ(CLIP-ViT)と、それに対する様々なパッチアタックのバリエーションである。
論文 参考訳(メタデータ) (2024-12-02T17:15:59Z) - On the Adversarial Transferability of Generalized "Skip Connections" [83.71752155227888]
スキップ接続は、より深く、より強力な現代のディープモデルにとって重要な要素である。
バックプロパゲーションにおいて、バックプロパゲーション中に、スキップ接続からより多くの勾配を用いることで、高い転送性を持つ逆例を作成できることが分かる。
本稿では,ResNet,Transformer,Inceptions,Neural Architecture Search,Large Language Modelsなど,さまざまなモデルに対する包括的なトランスファー攻撃を行う。
論文 参考訳(メタデータ) (2024-10-11T16:17:47Z) - Imitating the Functionality of Image-to-Image Models Using a Single Example [24.819964498441635]
入力と出力のペアを観測することで、画像から画像への変換モデルの機能を模倣する可能性について検討する。
ひとつの例でさえ、モデルの機能の模倣を学ぶのに十分であることがわかったのです。
論文 参考訳(メタデータ) (2024-06-02T18:30:41Z) - Have You Merged My Model? On The Robustness of Large Language Model IP Protection Methods Against Model Merging [25.327483618051378]
モデル統合シナリオにおけるIP保護手法の堅牢性に関する最初の研究を行う。
実験結果から,現在のLarge Language Model (LLM) の透かし技術は統合されたモデルでは生き残れないことが示唆された。
本研究の目的は,モデルIP保護手法の堅牢性評価において,モデルマージが不可欠であることを示すことである。
論文 参考訳(メタデータ) (2024-04-08T04:30:33Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - QuMoS: A Framework for Preserving Security of Quantum Machine Learning
Model [10.543277412560233]
セキュリティは常に、機械学習(ML)アプリケーションにおいて重要な問題でした。
モデルステアリング攻撃は最も基本的な問題だが重要な問題の一つである。
モデルセキュリティを維持するための新しいフレームワーク、QuMoSを提案する。
論文 参考訳(メタデータ) (2023-04-23T01:17:43Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Encrypted machine learning of molecular quantum properties [0.0]
予測過程の暗号化は、二重盲検モデル評価によってこの問題を解決することができる。
セキュアで計算可能な暗号化機械学習モデルを実装している。
カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍のコストがかかることがわかった。
論文 参考訳(メタデータ) (2022-12-05T11:04:08Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。