論文の概要: Towards Scalable and Robust Model Versioning
- arxiv url: http://arxiv.org/abs/2401.09574v1
- Date: Wed, 17 Jan 2024 19:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:31:16.192608
- Title: Towards Scalable and Robust Model Versioning
- Title(参考訳): スケーラブルでロバストなモデルバージョニングに向けて
- Authors: Wenxin Ding, Arjun Nitin Bhagoji, Ben Y. Zhao, Haitao Zheng
- Abstract要約: ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
- 参考スコア(独自算出の注目度): 30.249607205048125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the deployment of deep learning models continues to expand across
industries, the threat of malicious incursions aimed at gaining access to these
deployed models is on the rise. Should an attacker gain access to a deployed
model, whether through server breaches, insider attacks, or model inversion
techniques, they can then construct white-box adversarial attacks to manipulate
the model's classification outcomes, thereby posing significant risks to
organizations that rely on these models for critical tasks. Model owners need
mechanisms to protect themselves against such losses without the necessity of
acquiring fresh training data - a process that typically demands substantial
investments in time and capital.
In this paper, we explore the feasibility of generating multiple versions of
a model that possess different attack properties, without acquiring new
training data or changing model architecture. The model owner can deploy one
version at a time and replace a leaked version immediately with a new version.
The newly deployed model version can resist adversarial attacks generated
leveraging white-box access to one or all previously leaked versions. We show
theoretically that this can be accomplished by incorporating parameterized
hidden distributions into the model training data, forcing the model to learn
task-irrelevant features uniquely defined by the chosen data. Additionally,
optimal choices of hidden distributions can produce a sequence of model
versions capable of resisting compound transferability attacks over time.
Leveraging our analytical insights, we design and implement a practical model
versioning method for DNN classifiers, which leads to significant robustness
improvements over existing methods. We believe our work presents a promising
direction for safeguarding DNN services beyond their initial deployment.
- Abstract(参考訳): ディープラーニングモデルの展開が業界全体に広がるにつれ、これらのデプロイされたモデルへのアクセスを目的とした悪意のある侵入の脅威が高まっている。
攻撃者がサーバの侵入、インサイダー攻撃、モデル反転技術などを通じてデプロイされたモデルにアクセスできれば、モデルの分類結果を操作するためにホワイトボックスの敵攻撃を構築でき、クリティカルなタスクにこれらのモデルに依存する組織に重大なリスクをもたらす。
モデル所有者は、新たなトレーニングデータを取得する必要なしに、そのような損失から自分自身を保護するメカニズムを必要とします。
本稿では,新たなトレーニングデータを取得したり,モデルアーキテクチャを変更することなく,異なる攻撃特性を持つモデルの複数バージョンを生成する可能性を検討する。
モデルオーナーは一度に1つのバージョンをデプロイし、リークしたバージョンを新しいバージョンで即座に置き換えることができる。
新しくデプロイされたモデルバージョンは、以前にリークされたバージョンすべてに対するホワイトボックスアクセスを利用して生成された敵攻撃に抵抗することができる。
モデル学習データにパラメータ化された隠れ分布を組み込むことで、モデルが選択したデータによって一意に定義されたタスク関連の特徴を学習させることで、これを実現できることを示す。
さらに、隠蔽分布の最適選択は、時間とともに複合転送可能性攻撃に抵抗できるモデルバージョンのシーケンスを生成することができる。
分析的知見を活かし,dnn分類器の実用的なモデルバージョニング手法を設計・実装し,既存の手法よりも大幅に堅牢性が向上した。
当社の作業は、DNNサービスを初期展開を超えて保護するための有望な方向性を示すものだと考えています。
関連論文リスト
- Mitigating Downstream Model Risks via Model Provenance [30.083382916838623]
モデルレコードの作成を簡単にするための機械可読モデル仕様フォーマットを提案する。
私たちのソリューションは、アップストリームモデルとダウンストリームモデルの関係を明確にトレースし、透明性とトレーサビリティを向上します。
この概念実証の目的は、基礎モデルを管理するための新しい標準を設定し、イノベーションと責任あるモデル管理のギャップを埋めることである。
論文 参考訳(メタデータ) (2024-10-03T05:52:15Z) - Multi-Model based Federated Learning Against Model Poisoning Attack: A Deep Learning Based Model Selection for MEC Systems [11.564289367348334]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散データからグローバルモデルのトレーニングを可能にする。
本稿では, モデル中毒対策の機会を高めるための積極的メカニズムとして, マルチモデルFLを提案する。
DDoS攻撃検出のシナリオでは、システムは攻撃を受けないというシナリオと、認識時間の改善の可能性によって、毒殺攻撃下での競争精度の向上が示される。
論文 参考訳(メタデータ) (2024-09-12T17:36:26Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Careful What You Wish For: on the Extraction of Adversarially Trained
Models [2.707154152696381]
最近の機械学習(ML)モデルに対する攻撃は、いくつかのセキュリティとプライバシの脅威を引き起こす。
本稿では,敵の学習したモデルに対する抽出攻撃を評価する枠組みを提案する。
本研究では, 自然学習環境下で得られたモデルよりも, 敵の訓練を受けたモデルの方が抽出攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-07-21T16:04:37Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Thief, Beware of What Get You There: Towards Understanding Model
Extraction Attack [13.28881502612207]
いくつかのシナリオでは、AIモデルはプロプライエタリに訓練され、事前に訓練されたモデルも十分な分散データも公開されていない。
既存の手法の有効性は,事前学習モデルの欠如に大きく影響している。
モデル抽出攻撃を、これらの要因を深層強化学習で捉える適応的フレームワークに定式化します。
論文 参考訳(メタデータ) (2021-04-13T03:46:59Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。