論文の概要: Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access
- arxiv url: http://arxiv.org/abs/2107.09362v1
- Date: Tue, 20 Jul 2021 09:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 20:00:59.585085
- Title: Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access
- Title(参考訳): 秘密鍵を用いたブロックワイズ画像暗号化によるセマンティックセグメンテーションモデル保護
- Authors: Hiroki Ito, MaungMaung AprilPyone, Hitoshi Kiya
- Abstract要約: 秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
- 参考スコア(独自算出の注目度): 13.106063755117399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since production-level trained deep neural networks (DNNs) are of a great
business value, protecting such DNN models against copyright infringement and
unauthorized access is in a rising demand. However, conventional model
protection methods focused only the image classification task, and these
protection methods were never applied to semantic segmentation although it has
an increasing number of applications. In this paper, we propose to protect
semantic segmentation models from unauthorized access by utilizing block-wise
transformation with a secret key for the first time. Protected models are
trained by using transformed images. Experiment results show that the proposed
protection method allows rightful users with the correct key to access the
model to full capacity and deteriorate the performance for unauthorized users.
However, protected models slightly drop the segmentation performance compared
to non-protected models.
- Abstract(参考訳): 製品レベルの訓練されたディープニューラルネットワーク(DNN)は大きなビジネス価値を持つため、著作権侵害や不正アクセスからDNNモデルを保護することが要求される。
しかし,従来のモデル保護手法は画像分類タスクのみに焦点を合わせており,これらの保護手法は意味的セグメンテーションには適用されなかった。
本稿では,秘密鍵を用いたブロックワイズ変換を初めて活用し,無許可アクセスから意味セグメンテーションモデルを保護することを提案する。
保護されたモデルは変換された画像を用いて訓練される。
実験の結果, 提案手法により, 正当なユーザに対して, モデルをフル容量でアクセスし, 不正ユーザの性能を低下させることができることがわかった。
しかし、保護されたモデルは保護されていないモデルに比べてセグメンテーション性能をわずかに低下させる。
関連論文リスト
- ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Access Control with Encrypted Feature Maps for Object Detection Models [10.925242558525683]
本稿では,オブジェクト検出モデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
論文 参考訳(メタデータ) (2022-09-29T14:46:04Z) - Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps [12.29209267739635]
セマンティックセグメンテーションモデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
論文 参考訳(メタデータ) (2022-06-11T05:02:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Access Control Using Spatially Invariant Permutation of Feature Maps for
Semantic Segmentation Models [13.106063755117399]
セグメンテーションモデルを保護する秘密鍵を用いた特徴写像の空間不変な置換を用いたアクセス制御手法を提案する。
提案手法により,適切なキーを持つユーザに対して,モデルにフルキャパシティにアクセスできるだけでなく,不正なユーザに対して性能を劣化させることが可能となる。
論文 参考訳(メタデータ) (2021-09-03T06:23:42Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Training DNN Model with Secret Key for Model Protection [17.551718914117917]
本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
論文 参考訳(メタデータ) (2020-08-06T04:25:59Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。