論文の概要: Privacy-Preserving Image Acquisition Using Trainable Optical Kernel
- arxiv url: http://arxiv.org/abs/2106.14577v1
- Date: Mon, 28 Jun 2021 11:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 13:46:58.640814
- Title: Privacy-Preserving Image Acquisition Using Trainable Optical Kernel
- Title(参考訳): 学習可能な光カーネルを用いたプライバシー保全画像取得
- Authors: Yamin Sepehri, Pedram Pad, Pascal Frossard, L. Andrea Dunbar
- Abstract要約: 本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
- 参考スコア(独自算出の注目度): 50.1239616836174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preserving privacy is a growing concern in our society where sensors and
cameras are ubiquitous. In this work, for the first time, we propose a
trainable image acquisition method that removes the sensitive identity
revealing information in the optical domain before it reaches the image sensor.
The method benefits from a trainable optical convolution kernel which transmits
the desired information while filters out the sensitive content. As the
sensitive content is suppressed before it reaches the image sensor, it does not
enter the digital domain therefore is unretrievable by any sort of privacy
attack. This is in contrast with the current digital privacy-preserving methods
that are all vulnerable to direct access attack. Also, in contrast with the
previous optical privacy-preserving methods that cannot be trained, our method
is data-driven and optimized for the specific application at hand. Moreover,
there is no additional computation, memory, or power burden on the acquisition
system since this processing happens passively in the optical domain and can
even be used together and on top of the fully digital privacy-preserving
systems. The proposed approach is adaptable to different digital neural
networks and content. We demonstrate it for several scenarios such as smile
detection as the desired attribute while the gender is filtered out as the
sensitive content. We trained the optical kernel in conjunction with two
adversarial neural networks where the analysis network tries to detect the
desired attribute and the adversarial network tries to detect the sensitive
content. We show that this method can reduce 65.1% of sensitive content when it
is selected to be the gender and it only loses 7.3% of the desired content.
Moreover, we reconstruct the original faces using the deep reconstruction
method that confirms the ineffectiveness of reconstruction attacks to obtain
the sensitive content.
- Abstract(参考訳): センサーやカメラが普及している社会では、プライバシーを守ることが懸念されている。
本研究では,画像センサに到達する前に,光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
トレーニング可能な光畳み込みカーネルの利点は、機密コンテンツをフィルタリングしながら所望の情報を送信することである。
画像センサに到達する前にセンシティブなコンテンツが抑制されるため、デジタルドメインに入力されないため、いかなる種類のプライバシー攻撃でも再生できない。
これは、ダイレクトアクセス攻撃に対して脆弱な現在のデジタルプライバシー保存方法とは対照的である。
また、トレーニングできない従来の光プライバシー保存手法とは対照的に、本手法はデータ駆動型であり、特定のアプリケーションに対して最適化されている。
さらに、この処理は光学領域で受動的に発生し、完全なデジタルプライバシ保存システム上でも使用できるため、取得システムに余分な計算、メモリ、電力負担は発生しない。
提案されたアプローチは、異なるデジタルニューラルネットワークとコンテンツに適応できる。
性別がセンシティブなコンテンツとしてフィルタリングされる間、所望の属性として笑顔検出など、いくつかのシナリオでこれを実証する。
我々は,解析ネットワークが所望の属性を検知し,敵ネットワークがセンシティブなコンテンツを検出しようとする2つの敵ニューラルネットワークと共に,光学カーネルを訓練した。
本手法は,性別選択時に65.1%のセンシティブなコンテンツを減らし,所望のコンテンツの7.3%しか失わないことを示す。
さらに, 再建攻撃の非効率性を確認し, センシティブな内容を得るディープリコンストラクション手法を用いて, 元の顔の再構築を行う。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Region of Interest Loss for Anonymizing Learned Image Compression [3.0936354370614607]
人間の顔が認識不能になり,人体が検出不能となるような,十分な匿名化を実現する方法を示す。
このアプローチは、ネットワーク越しに機密性の高い匿名化データを送信するのではなく、キャプチャデバイス上の1ステップで圧縮と匿名化を可能にする。
論文 参考訳(メタデータ) (2024-06-09T10:36:06Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Selective manipulation of disentangled representations for privacy-aware
facial image processing [5.612561387428165]
センサデータがクラウドに送信される前に、プライバシーに敏感な属性を除去するエッジベースのフィルタリングステージを提案する。
我々は、アンタングル表現を利用した最先端の画像操作技術を用いて、プライバシーフィルタリングを実現している。
論文 参考訳(メタデータ) (2022-08-26T12:47:18Z) - Key-Nets: Optical Transformation Convolutional Networks for Privacy
Preserving Vision Sensors [3.3517146652431378]
キーネットは、独自の視覚センサーと組み合わせた畳み込みネットワークである。
キーネットはヒル暗号を用いた同型暗号と同値であることを示す。
論文 参考訳(メタデータ) (2020-08-11T01:21:29Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。