論文の概要: A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing
- arxiv url: http://arxiv.org/abs/2411.03847v1
- Date: Wed, 06 Nov 2024 11:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:23:58.497345
- Title: A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing
- Title(参考訳): エッジコンピューティングにおける新しいアクセス制御とプライバシ・エンハンシングアプローチ
- Authors: Peihao Li,
- Abstract要約: 本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
- 参考スコア(独自算出の注目度): 0.26107298043931193
- License:
- Abstract: With the widespread adoption of edge computing technologies and the increasing prevalence of deep learning models in these environments, the security risks and privacy threats to models and data have grown more acute. Attackers can exploit various techniques to illegally obtain models or misuse data, leading to serious issues such as intellectual property infringement and privacy breaches. Existing model access control technologies primarily rely on traditional encryption and authentication methods; however, these approaches exhibit significant limitations in terms of flexibility and adaptability in dynamic environments. Although there have been advancements in model watermarking techniques for marking model ownership, they remain limited in their ability to proactively protect intellectual property and prevent unauthorized access. To address these challenges, we propose a novel model access control method tailored for edge computing environments. This method leverages image style as a licensing mechanism, embedding style recognition into the model's operational framework to enable intrinsic access control. Consequently, models deployed on edge platforms are designed to correctly infer only on license data with specific style, rendering them ineffective on any other data. By restricting the input data to the edge model, this approach not only prevents attackers from gaining unauthorized access to the model but also enhances the privacy of data on terminal devices. We conducted extensive experiments on benchmark datasets, including MNIST, CIFAR-10, and FACESCRUB, and the results demonstrate that our method effectively prevents unauthorized access to the model while maintaining accuracy. Additionally, the model shows strong resistance against attacks such as forged licenses and fine-tuning. These results underscore the method's usability, security, and robustness.
- Abstract(参考訳): エッジコンピューティング技術の普及と、これらの環境におけるディープラーニングモデルの普及により、モデルやデータに対するセキュリティリスクとプライバシの脅威は、ますます深刻になっている。
攻撃者は、さまざまなテクニックを利用して、違法にモデルを取得し、データを誤用し、知的財産権侵害やプライバシー侵害などの深刻な問題を引き起こす。
既存のモデルアクセス制御技術は主に従来の暗号化と認証方式に依存しているが、これらの手法は動的環境における柔軟性と適応性の点で大きな限界を示す。
モデル所有権のマーク付けのためのモデル透かし技術は進歩してきたが、知的財産を積極的に保護し、不正アクセスを防ぐ能力は依然として限られている。
これらの課題に対処するために,エッジコンピューティング環境に適したモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を埋め込み、固有のアクセス制御を可能にする。
結果として、エッジプラットフォームにデプロイされたモデルは、特定のスタイルでライセンスデータのみを正しく推論するように設計され、他のデータでは効果がない。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
我々は,MNIST, CIFAR-10, FACESCRUBなどのベンチマークデータセットに対する広範な実験を行い, 精度を維持しながら, モデルへの不正アクセスを効果的に防止できることを実証した。
さらに、このモデルは、鍛造されたライセンスや微調整のような攻撃に対して強い抵抗を示す。
これらの結果は、メソッドのユーザビリティ、セキュリティ、堅牢性を強調します。
関連論文リスト
- TEESlice: Protecting Sensitive Neural Network Models in Trusted Execution Environments When Attackers have Pre-Trained Models [12.253529209143197]
TSDPは、TEE内のプライバシーに敏感な重みを保護し、GPUに不感な重みをオフロードする手法である。
トレーニング戦略の前に新たなパーティションを導入し,プライバシに敏感な重みをモデルの他のコンポーネントと効果的に分離する。
提案手法は, 計算コストを10倍に削減し, 完全なモデル保護を実現できることを示す。
論文 参考訳(メタデータ) (2024-11-15T04:52:11Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Unlearning Backdoor Attacks through Gradient-Based Model Pruning [10.801476967873173]
本研究では,その軽減を未学習課題として扱うことによって,バックドア攻撃に対抗する新しい手法を提案する。
このアプローチは単純さと有効性を提供し、データ可用性に制限のあるシナリオに適しています。
論文 参考訳(メタデータ) (2024-05-07T00:36:56Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Rethinking Privacy in Machine Learning Pipelines from an Information
Flow Control Perspective [16.487545258246932]
現代の機械学習システムは、成長を続けるコーパスで訓練されたモデルを使用する。
オーナシップ、アクセス制御、ライセンス情報などのメタデータは、トレーニング中に無視される。
情報フロー制御の観点から機械学習システムを記述する。
論文 参考訳(メタデータ) (2023-11-27T13:14:39Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Non-Transferable Learning: A New Approach for Model Verification and
Authorization [7.686781778077341]
オーナシップの認証と使用許可という2つの一般的な保護方法がある。
学習モデルにおける排他的データ表現をキャプチャする新しい手法であるNon-Transferable Learning (NTL)を提案する。
我々のNTLベースの認証アプローチは、不正なデータに対する使用性能を著しく低下させることで、データ中心の使用保護を提供します。
論文 参考訳(メタデータ) (2021-06-13T04:57:16Z) - Anonymizing Machine Learning Models [0.0]
匿名化されたデータは、EU一般データ保護規則などの規則で定められた義務から除外される。
そこで本研究では,学習モデル内に符号化された知識を用いて,より優れたモデル精度を実現する手法を提案する。
また、当社のアプローチには、差分プライバシーに基づくアプローチとして、メンバーシップアタックを防止できる機能があることも示しています。
論文 参考訳(メタデータ) (2020-07-26T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。