論文の概要: Membership Inference Attacks Against Object Detection Models
- arxiv url: http://arxiv.org/abs/2001.04011v2
- Date: Tue, 28 Jan 2020 08:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 04:58:24.977223
- Title: Membership Inference Attacks Against Object Detection Models
- Title(参考訳): オブジェクト検出モデルに対するメンバーシップ推論攻撃
- Authors: Yeachan Park, Myungjoo Kang
- Abstract要約: ブラックボックスオブジェクト検出モデルに対する最初のメンバシップ推論攻撃を示す。
我々は,1段階および2段階検出モデルを用いて訓練した個人機密データの登録状況を明らかにした。
その結果、オブジェクト検出モデルは、他のモデルのような推論攻撃にも弱いことが判明した。
- 参考スコア(独自算出の注目度): 1.0467092641687232
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Machine learning models can leak information regarding the dataset they have
trained. In this paper, we present the first membership inference attack
against black-boxed object detection models that determines whether the given
data records are used in the training. To attack the object detection model, we
devise a novel method named as called a canvas method, in which predicted
bounding boxes are drawn on an empty image for the attack model input. Based on
the experiments, we successfully reveal the membership status of privately
sensitive data trained using one-stage and two-stage detection models. We then
propose defense strategies and also conduct a transfer attack between the
models and datasets. Our results show that object detection models are also
vulnerable to inference attacks like other models.
- Abstract(参考訳): 機械学習モデルは、トレーニングしたデータセットに関する情報をリークすることができる。
本稿では,ブラックボックスオブジェクト検出モデルに対する最初のメンバシップ推論攻撃を行い,トレーニングに与えられたデータレコードが使用されているかどうかを判定する。
対象検出モデルを攻撃するために,攻撃モデル入力のための空画像に予測された境界ボックスを描画するcanvas法という新しい手法を考案する。
実験の結果, 1段階および2段階検出モデルを用いて, プライベートセンシティブデータのメンバシップ状態を明らかにすることに成功した。
次に,防衛戦略を提案し,モデルとデータセット間の転送攻撃を行う。
その結果,オブジェクト検出モデルは他のモデルのような推論攻撃にも脆弱であることが判明した。
関連論文リスト
- Data-Free Model Extraction Attacks in the Context of Object Detection [0.6719751155411076]
多くの機械学習モデルは、モデル抽出攻撃に対して脆弱である。
本研究では,オブジェクト検出における境界ボックス座標の予測のための回帰問題に拡張した逆ブラックボックス攻撃を提案する。
提案したモデル抽出法は,妥当なクエリを用いて有意な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-09T06:23:54Z) - Scalable Membership Inference Attacks via Quantile Regression [35.33158339354343]
メンバーシップ推論攻撃は、トレーニングで特定の例が使用されたかどうかに関わらず、トレーニングされたモデルへのブラックボックスアクセスを使用して決定するように設計されている。
本稿では,トレーニングに使用されていない点に対する攻撃下でモデルによって誘導される信頼度スコアの分布に基づいて,量子回帰に基づく新たな攻撃方法を提案する。
論文 参考訳(メタデータ) (2023-07-07T16:07:00Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - l-Leaks: Membership Inference Attacks with Logits [5.663757165885866]
我々はターゲットモデルへのブラックボックスアクセスに基づく攻撃を提示する。
ターゲットモデルのロジットを学習し、ターゲットモデルとよりよく似たシャドーモデルを構築することにより、シャドーモデルを構築する。
論文 参考訳(メタデータ) (2022-05-13T06:59:09Z) - Label-only Model Inversion Attack: The Attack that Requires the Least
Information [14.061083728194378]
モデル反転攻撃では、敵はモデル出力のみを使用してターゲットモデルをトレーニングするために使用されるデータレコードを再構築しようと試みる。
出力ラベルのみに基づいて入力データレコードを再構成できるモデル逆変換法が発見された。
論文 参考訳(メタデータ) (2022-03-13T03:03:49Z) - Label-Only Model Inversion Attacks via Boundary Repulsion [12.374249336222906]
対象モデルの予測ラベルのみを用いて,プライベートトレーニングデータを逆転するアルゴリズムを提案する。
顔認識の例を用いて、BREP-MIで再構成した画像は、プライベートトレーニングデータのセマンティクスを再現することに成功した。
論文 参考訳(メタデータ) (2022-03-03T18:57:57Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。