論文の概要: Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps
- arxiv url: http://arxiv.org/abs/2206.05422v1
- Date: Sat, 11 Jun 2022 05:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:02:49.353708
- Title: Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps
- Title(参考訳): 暗号化特徴マップを用いた意味セグメンテーションモデルのアクセス制御
- Authors: Hiroki Ito, AprilPyone MaungMaung, Sayaka Shiota, Hitoshi Kiya
- Abstract要約: セマンティックセグメンテーションモデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
- 参考スコア(独自算出の注目度): 12.29209267739635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an access control method with a secret key for
semantic segmentation models for the first time so that unauthorized users
without a secret key cannot benefit from the performance of trained models. The
method enables us not only to provide a high segmentation performance to
authorized users but to also degrade the performance for unauthorized users. We
first point out that, for the application of semantic segmentation,
conventional access control methods which use encrypted images for
classification tasks are not directly applicable due to performance
degradation. Accordingly, in this paper, selected feature maps are encrypted
with a secret key for training and testing models, instead of input images. In
an experiment, the protected models allowed authorized users to obtain almost
the same performance as that of non-protected models but also with robustness
against unauthorized access without a key.
- Abstract(参考訳): 本稿では,秘密鍵のない無許可ユーザが訓練されたモデルの性能を享受できないよう,セマンティックセマンティクスモデルのための秘密鍵を用いたアクセス制御手法を提案する。
この方法では、認証されたユーザに高いセグメンテーション性能を提供するだけでなく、不正なユーザのパフォーマンスを低下させることができます。
まず,セマンティックセグメンテーションの適用において,分類タスクに暗号化画像を使用する従来のアクセス制御方式は,性能劣化により直接適用できないことを指摘した。
そこで本論文では,入力画像の代わりに,選択した特徴マップを秘密鍵で暗号化してモデルを訓練し,テストする。
実験では、保護されていないモデルとほぼ同等の性能を持つが、キーを使わずに不正アクセスに対して堅牢性がある。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Access Control with Encrypted Feature Maps for Object Detection Models [10.925242558525683]
本稿では,オブジェクト検出モデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
論文 参考訳(メタデータ) (2022-09-29T14:46:04Z) - An Access Control Method with Secret Key for Semantic Segmentation
Models [12.27887776401573]
非許可アクセスからモデルを保護するために,秘密鍵を用いた新しいアクセス制御法を提案する。
セグメンテーション変換器(SETR)と呼ばれる視覚変換器(ViT)を用いたセグメンテーションモデルに焦点を当てる。
論文 参考訳(メタデータ) (2022-08-28T04:09:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Protection of SVM Model with Secret Key from Unauthorized Access [13.106063755117399]
本稿では,ベクトルマシン(SVM)モデルをサポートする秘密鍵を用いたブロックワイズ画像変換手法を提案する。
変換された画像を使用することでトレーニングされたモデルは、キーのない未許可のユーザにはパフォーマンスが悪く、キーを持った認証されたユーザには高いパフォーマンスを提供することができる。
論文 参考訳(メタデータ) (2021-11-17T06:41:51Z) - Access Control Using Spatially Invariant Permutation of Feature Maps for
Semantic Segmentation Models [13.106063755117399]
セグメンテーションモデルを保護する秘密鍵を用いた特徴写像の空間不変な置換を用いたアクセス制御手法を提案する。
提案手法により,適切なキーを持つユーザに対して,モデルにフルキャパシティにアクセスできるだけでなく,不正なユーザに対して性能を劣化させることが可能となる。
論文 参考訳(メタデータ) (2021-09-03T06:23:42Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。