論文の概要: Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps
- arxiv url: http://arxiv.org/abs/2206.05422v1
- Date: Sat, 11 Jun 2022 05:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:02:49.353708
- Title: Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps
- Title(参考訳): 暗号化特徴マップを用いた意味セグメンテーションモデルのアクセス制御
- Authors: Hiroki Ito, AprilPyone MaungMaung, Sayaka Shiota, Hitoshi Kiya
- Abstract要約: セマンティックセグメンテーションモデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
- 参考スコア(独自算出の注目度): 12.29209267739635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an access control method with a secret key for
semantic segmentation models for the first time so that unauthorized users
without a secret key cannot benefit from the performance of trained models. The
method enables us not only to provide a high segmentation performance to
authorized users but to also degrade the performance for unauthorized users. We
first point out that, for the application of semantic segmentation,
conventional access control methods which use encrypted images for
classification tasks are not directly applicable due to performance
degradation. Accordingly, in this paper, selected feature maps are encrypted
with a secret key for training and testing models, instead of input images. In
an experiment, the protected models allowed authorized users to obtain almost
the same performance as that of non-protected models but also with robustness
against unauthorized access without a key.
- Abstract(参考訳): 本稿では,秘密鍵のない無許可ユーザが訓練されたモデルの性能を享受できないよう,セマンティックセマンティクスモデルのための秘密鍵を用いたアクセス制御手法を提案する。
この方法では、認証されたユーザに高いセグメンテーション性能を提供するだけでなく、不正なユーザのパフォーマンスを低下させることができます。
まず,セマンティックセグメンテーションの適用において,分類タスクに暗号化画像を使用する従来のアクセス制御方式は,性能劣化により直接適用できないことを指摘した。
そこで本論文では,入力画像の代わりに,選択した特徴マップを秘密鍵で暗号化してモデルを訓練し,テストする。
実験では、保護されていないモデルとほぼ同等の性能を持つが、キーを使わずに不正アクセスに対して堅牢性がある。
関連論文リスト
- Instructional Fingerprinting of Large Language Models [61.16480641024264]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Robust Semantic Segmentation: Strong Adversarial Attacks and Fast
Training of Robust Models [55.19586522442065]
攻撃セグメンテーションモデルがタスク固有の課題を示し、新しい解決策を提案する。
我々の最終評価プロトコルは既存の手法よりも優れており、モデルの頑健さを過大評価できることを示す。
論文 参考訳(メタデータ) (2023-06-22T14:56:06Z) - Access Control with Encrypted Feature Maps for Object Detection Models [10.925242558525683]
本稿では,オブジェクト検出モデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
論文 参考訳(メタデータ) (2022-09-29T14:46:04Z) - An Access Control Method with Secret Key for Semantic Segmentation
Models [12.27887776401573]
非許可アクセスからモデルを保護するために,秘密鍵を用いた新しいアクセス制御法を提案する。
セグメンテーション変換器(SETR)と呼ばれる視覚変換器(ViT)を用いたセグメンテーションモデルに焦点を当てる。
論文 参考訳(メタデータ) (2022-08-28T04:09:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Protection of SVM Model with Secret Key from Unauthorized Access [13.106063755117399]
本稿では,ベクトルマシン(SVM)モデルをサポートする秘密鍵を用いたブロックワイズ画像変換手法を提案する。
変換された画像を使用することでトレーニングされたモデルは、キーのない未許可のユーザにはパフォーマンスが悪く、キーを持った認証されたユーザには高いパフォーマンスを提供することができる。
論文 参考訳(メタデータ) (2021-11-17T06:41:51Z) - PASS: An ImageNet replacement for self-supervised pretraining without
humans [152.3252728876108]
本稿では,自己スーパービジョンのためのHumAnsを含まないPASS:Picturesを提案する。
PASSは、CC-BYライセンスのイメージと、著作権問題に対処する完全な属性メタデータのみを含む。
PASS は MoCo-v2, SwAV, DINO などの手法で事前訓練できることを示す。
PASSは、例えばベンチマークに不十分なため、既存のデータセットを陳腐化しない。しかしながら、より安全なデータを使用して、モデル事前トレーニングがしばしば可能であることを示し、事前トレーニングメソッドをより堅牢に評価する基盤を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - Access Control Using Spatially Invariant Permutation of Feature Maps for
Semantic Segmentation Models [13.106063755117399]
セグメンテーションモデルを保護する秘密鍵を用いた特徴写像の空間不変な置換を用いたアクセス制御手法を提案する。
提案手法により,適切なキーを持つユーザに対して,モデルにフルキャパシティにアクセスできるだけでなく,不正なユーザに対して性能を劣化させることが可能となる。
論文 参考訳(メタデータ) (2021-09-03T06:23:42Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。