論文の概要: Proteus: Preserving Model Confidentiality during Graph Optimizations
- arxiv url: http://arxiv.org/abs/2404.12512v1
- Date: Thu, 18 Apr 2024 21:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:44:29.222873
- Title: Proteus: Preserving Model Confidentiality during Graph Optimizations
- Title(参考訳): Proteus: グラフ最適化時のモデルの信頼性を維持する
- Authors: Yubo Gao, Maryam Haghifam, Christina Giannoula, Renbo Tu, Gennady Pekhimenko, Nandita Vijaykumar,
- Abstract要約: 本稿では,独立政党によるモデル最適化を実現する新しいメカニズムであるProteusを提案する。
Proteusは、計算グラフをサブグラフに分割することで、保護されたモデルを難読化する。
私たちの知る限り、Proteusはパフォーマンス最適化中にモデルの機密性に取り組む最初の作品です。
- 参考スコア(独自算出の注目度): 5.44122875495684
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning (DL) models have revolutionized numerous domains, yet optimizing them for computational efficiency remains a challenging endeavor. Development of new DL models typically involves two parties: the model developers and performance optimizers. The collaboration between the parties often necessitates the model developers exposing the model architecture and computational graph to the optimizers. However, this exposure is undesirable since the model architecture is an important intellectual property, and its innovations require significant investments and expertise. During the exchange, the model is also vulnerable to adversarial attacks via model stealing. This paper presents Proteus, a novel mechanism that enables model optimization by an independent party while preserving the confidentiality of the model architecture. Proteus obfuscates the protected model by partitioning its computational graph into subgraphs and concealing each subgraph within a large pool of generated realistic subgraphs that cannot be easily distinguished from the original. We evaluate Proteus on a range of DNNs, demonstrating its efficacy in preserving confidentiality without compromising performance optimization opportunities. Proteus effectively hides the model as one alternative among up to $10^{32}$ possible model architectures, and is resilient against attacks with a learning-based adversary. We also demonstrate that heuristic based and manual approaches are ineffective in identifying the protected model. To our knowledge, Proteus is the first work that tackles the challenge of model confidentiality during performance optimization. Proteus will be open-sourced for direct use and experimentation, with easy integration with compilers such as ONNXRuntime.
- Abstract(参考訳): ディープラーニング(DL)モデルは、多くのドメインに革命をもたらしたが、それらを計算効率に最適化することは、依然として困難な試みである。
新しいDLモデルの開発には、通常、モデル開発者とパフォーマンスオプティマイザの2つのパーティがある。
パーティ間のコラボレーションは、しばしばモデル開発者がモデルアーキテクチャと計算グラフをオプティマイザに公開する必要がある。
しかし、モデルアーキテクチャは重要な知的財産であり、その革新にはかなりの投資と専門知識が必要であるため、この露出は望ましくない。
交換の間、モデルはモデル盗難による敵攻撃にも脆弱である。
本稿では,モデルアーキテクチャの機密性を保ちながら,独立当事者によるモデル最適化を可能にする新しいメカニズムであるProteusを提案する。
Proteusは、計算グラフをサブグラフに分割し、各サブグラフを元のものと容易に区別できない生成された現実的なサブグラフの大きなプールに隠すことで、保護されたモデルを難読化する。
我々はProteusを様々なDNNで評価し、性能最適化の機会を損なうことなく機密性を維持する効果を実証した。
Proteusは、モデルアーキテクチャの可能な最大10〜32ドルという選択肢のひとつとして、モデルを効果的に隠蔽し、学習ベースの敵による攻撃に対して耐性がある。
また、ヒューリスティックベースと手動アプローチは、保護されたモデルを特定するのに効果がないことを示す。
私たちの知る限り、Proteusはパフォーマンス最適化中にモデルの機密性に取り組む最初の作品です。
Proteusは、ONNXRuntimeのようなコンパイラと簡単に統合され、直接の使用と実験のためにオープンソースになる。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning [5.73658856166614]
InstaHide と DisguizedNets という新しいエンフィメージ・ディスガージング機構について検討・比較を行った。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、および2つのブロックレベルのセキュアな変換を組み合わせた新しい組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップ技術である。
マルチレベル脅威モデルを用いて解析および評価を行った。
論文 参考訳(メタデータ) (2022-12-31T16:59:54Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - BODAME: Bilevel Optimization for Defense Against Model Extraction [10.877450596327407]
私たちは、サービスプロバイダのアタッカーを最も推測する前提の下でモデル抽出を防ぐために、逆の設定を検討します。
真のモデルの予測を用いてサロゲートモデルを定式化する。
勾配降下に基づくアルゴリズムを用いて学習されるより複雑なモデルに対して,トラクタブル変換とアルゴリズムを与える。
論文 参考訳(メタデータ) (2021-03-11T17:08:31Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。