論文の概要: Analysis and Mitigations of Reverse Engineering Attacks on Local Feature
Descriptors
- arxiv url: http://arxiv.org/abs/2105.03812v1
- Date: Sun, 9 May 2021 01:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:56:20.389710
- Title: Analysis and Mitigations of Reverse Engineering Attacks on Local Feature
Descriptors
- Title(参考訳): 局所特徴記述子に対するリバースエンジニアリングアタックの解析と軽減
- Authors: Deeksha Dangwal, Vincent T. Lee, Hyo Jin Kim, Tianwei Shen, Meghan
Cowan, Rajvi Shah, Caroline Trippel, Brandon Reagen, Timothy Sherwood,
Vasileios Balntas, Armin Alaghi, Eddy Ilg
- Abstract要約: 我々は,制御条件下でスパース特徴マップに対するリバースエンジニアリング攻撃を示し,人気のある記述子の脆弱性を分析した。
画像マッチング精度を維持しつつ,プライバシ復元リスクを慎重にバランスをとるために,ディスクリプタのサブセットを選択する潜在的な緩和手法を評価する。
- 参考スコア(独自算出の注目度): 15.973484638972739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous driving and augmented reality evolve, a practical concern is
data privacy. In particular, these applications rely on localization based on
user images. The widely adopted technology uses local feature descriptors,
which are derived from the images and it was long thought that they could not
be reverted back. However, recent work has demonstrated that under certain
conditions reverse engineering attacks are possible and allow an adversary to
reconstruct RGB images. This poses a potential risk to user privacy. We take
this a step further and model potential adversaries using a privacy threat
model. Subsequently, we show under controlled conditions a reverse engineering
attack on sparse feature maps and analyze the vulnerability of popular
descriptors including FREAK, SIFT and SOSNet. Finally, we evaluate potential
mitigation techniques that select a subset of descriptors to carefully balance
privacy reconstruction risk while preserving image matching accuracy; our
results show that similar accuracy can be obtained when revealing less
information.
- Abstract(参考訳): 自動運転と拡張現実が進化するにつれ、実際の懸念はデータのプライバシーである。
特に、これらのアプリケーションはユーザイメージに基づくローカライズに依存している。
広く採用されている技術は、画像から派生したローカルな特徴記述子を使用しており、戻せないと長年考えられてきた。
しかし、最近の研究は、ある条件下ではリバースエンジニアリング攻撃が可能であり、敵がRGB画像を再構築できることを示した。
これはユーザプライバシに潜在的なリスクをもたらす。
これを一歩進めて、潜在的な敵をプライバシー脅威モデルを使ってモデル化する。
制御条件下では,スパース特徴マップに対するリバースエンジニアリング攻撃を行い,FREAK,SIFT,SOSNetなどの一般的な記述子の脆弱性を分析する。
最後に,画像マッチングの精度を保ちつつ,プライバシ再構築のリスクを慎重にバランスさせるために,記述子のサブセットを選択する潜在的な緩和手法を評価する。
関連論文リスト
- Is Diffusion Model Safe? Severe Data Leakage via Gradient-Guided Diffusion Model [13.66943548640248]
グラディエントリークは、現代の画像処理システムにおけるプライバシー侵害の潜在的な原因として特定されている。
本稿では,高解像度画像を盗むことができる新しい再構成攻撃法を提案する。
本手法は,画像再構成の画素単位の精度と時間効率の両方でSOTA攻撃ベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-06-13T14:41:47Z) - Region of Interest Loss for Anonymizing Learned Image Compression [3.0936354370614607]
人間の顔が認識不能になり,人体が検出不能となるような,十分な匿名化を実現する方法を示す。
このアプローチは、ネットワーク越しに機密性の高い匿名化データを送信するのではなく、キャプチャデバイス上の1ステップで圧縮と匿名化を可能にする。
論文 参考訳(メタデータ) (2024-06-09T10:36:06Z) - How Real Is Real? A Human Evaluation Framework for Unrestricted Adversarial Examples [8.483679748399036]
敵の例は、自動運転車のようなAIベースのシステムの安全性を脅かす。
画像領域では、悪質に摂動したデータポイントを表現し、人間に相応しいように見える。
本研究では,制限のない画像ベース攻撃に対する評価フレームワークであるSCOOTERを提案する。
論文 参考訳(メタデータ) (2024-04-19T06:42:01Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - Privacy Assessment on Reconstructed Images: Are Existing Evaluation
Metrics Faithful to Human Perception? [86.58989831070426]
本研究では,手作りのメトリクスの忠実さを,再構成画像からの人間のプライバシー情報の認識に適用する。
本稿では,SemSimと呼ばれる学習に基づく尺度を提案し,オリジナル画像と再構成画像のセマンティック類似性を評価する。
論文 参考訳(メタデータ) (2023-09-22T17:58:04Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Privacy-Preserving Representations are not Enough -- Recovering Scene
Content from Camera Poses [63.12979986351964]
既存のプライバシ保護ローカライゼーションの取り組みは、クラウドベースのサービスにアクセス可能な攻撃者に対して防御することを目的としている。
攻撃者は、単にローカライズサービスに問い合わせるだけで、アクセスすることなくシーンの詳細を知ることができることを示す。
論文 参考訳(メタデータ) (2023-05-08T10:25:09Z) - DISCO: Adversarial Defense with Local Implicit Functions [79.39156814887133]
aDversarIal defenSe with local impliCit functiOns が提案され、局所多様体射影による対角摂動を除去する。
DISCOは、逆画像とクエリピクセル位置を消費し、その位置でクリーンなRGB値を出力する。
論文 参考訳(メタデータ) (2022-12-11T23:54:26Z) - Privacy Safe Representation Learning via Frequency Filtering Encoder [7.792424517008007]
Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
我々は低域フィルタリングにより拡張された新しいARL手法を導入し、周波数領域で符号化される情報量を制限する。
論文 参考訳(メタデータ) (2022-08-04T06:16:13Z) - Assessing Privacy Risks from Feature Vector Reconstruction Attacks [24.262351521060676]
我々は、再構成された顔画像の脅威を有意義に捉える指標を開発する。
再構成された顔画像は、商業的な顔認識システムと人間の両方による再識別を可能にすることを示す。
その結果,特徴ベクトルはパーソナライズ可能な情報として認識されるべきであることが確認された。
論文 参考訳(メタデータ) (2022-02-11T16:52:02Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。