論文の概要: Access Control with Encrypted Feature Maps for Object Detection Models
- arxiv url: http://arxiv.org/abs/2209.14831v1
- Date: Thu, 29 Sep 2022 14:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:52:55.347279
- Title: Access Control with Encrypted Feature Maps for Object Detection Models
- Title(参考訳): オブジェクト検出モデルのための暗号化特徴マップによるアクセス制御
- Authors: Teru Nagamori, Hiroki Ito, AprilPyone MaungMaung, Hitoshi Kiya
- Abstract要約: 本稿では,オブジェクト検出モデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
- 参考スコア(独自算出の注目度): 10.925242558525683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose an access control method with a secret key for
object detection models for the first time so that unauthorized users without a
secret key cannot benefit from the performance of trained models. The method
enables us not only to provide a high detection performance to authorized users
but to also degrade the performance for unauthorized users. The use of
transformed images was proposed for the access control of image classification
models, but these images cannot be used for object detection models due to
performance degradation. Accordingly, in this paper, selected feature maps are
encrypted with a secret key for training and testing models, instead of input
images. In an experiment, the protected models allowed authorized users to
obtain almost the same performance as that of non-protected models but also
with robustness against unauthorized access without a key.
- Abstract(参考訳): 本稿では,秘密鍵のない未許可ユーザに対して,訓練されたモデルの性能を損なうことなく,オブジェクト検出モデルに対する秘密鍵を用いたアクセス制御手法を提案する。
本手法は,認証ユーザに対して高い検出性能を提供するだけでなく,不正ユーザに対する性能を低下させることを可能にする。
画像分類モデルのアクセス制御には変換画像の利用が提案されているが,これらの画像は性能劣化のためオブジェクト検出モデルには使用できない。
そこで本論文では,入力画像の代わりに,選択した特徴マップを秘密鍵で暗号化してモデルを訓練し,テストする。
実験では、保護されていないモデルとほぼ同等の性能を持つが、キーを使わずに不正アクセスに対して堅牢性がある。
関連論文リスト
- ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Access Control of Semantic Segmentation Models Using Encrypted Feature
Maps [12.29209267739635]
セマンティックセグメンテーションモデルのための秘密鍵を用いたアクセス制御手法を提案する。
選択された特徴マップは、モデルのトレーニングとテストのための秘密鍵で暗号化される。
実験では、保護されたモデルにより、許可されたユーザーが保護されていないモデルとほぼ同じ性能を得られるようにした。
論文 参考訳(メタデータ) (2022-06-11T05:02:01Z) - Access Control of Object Detection Models Using Encrypted Feature Maps [10.925242558525683]
本稿では,オブジェクト検出モデルに対するアクセス制御手法を提案する。
暗号化された画像や暗号化された特徴マップの使用は、不正アクセスからモデルのアクセス制御に有効であることが示されている。
論文 参考訳(メタデータ) (2022-02-01T07:52:38Z) - Protection of SVM Model with Secret Key from Unauthorized Access [13.106063755117399]
本稿では,ベクトルマシン(SVM)モデルをサポートする秘密鍵を用いたブロックワイズ画像変換手法を提案する。
変換された画像を使用することでトレーニングされたモデルは、キーのない未許可のユーザにはパフォーマンスが悪く、キーを持った認証されたユーザには高いパフォーマンスを提供することができる。
論文 参考訳(メタデータ) (2021-11-17T06:41:51Z) - PASS: An ImageNet replacement for self-supervised pretraining without
humans [152.3252728876108]
本稿では,自己スーパービジョンのためのHumAnsを含まないPASS:Picturesを提案する。
PASSは、CC-BYライセンスのイメージと、著作権問題に対処する完全な属性メタデータのみを含む。
PASS は MoCo-v2, SwAV, DINO などの手法で事前訓練できることを示す。
PASSは、例えばベンチマークに不十分なため、既存のデータセットを陳腐化しない。しかしながら、より安全なデータを使用して、モデル事前トレーニングがしばしば可能であることを示し、事前トレーニングメソッドをより堅牢に評価する基盤を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Access Control Using Spatially Invariant Permutation of Feature Maps for
Semantic Segmentation Models [13.106063755117399]
セグメンテーションモデルを保護する秘密鍵を用いた特徴写像の空間不変な置換を用いたアクセス制御手法を提案する。
提案手法により,適切なキーを持つユーザに対して,モデルにフルキャパシティにアクセスできるだけでなく,不正なユーザに対して性能を劣化させることが可能となる。
論文 参考訳(メタデータ) (2021-09-03T06:23:42Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。